KR20040091992A - Cyber pointer system - Google Patents

Cyber pointer system Download PDF

Info

Publication number
KR20040091992A
KR20040091992A KR1020030025791A KR20030025791A KR20040091992A KR 20040091992 A KR20040091992 A KR 20040091992A KR 1020030025791 A KR1020030025791 A KR 1020030025791A KR 20030025791 A KR20030025791 A KR 20030025791A KR 20040091992 A KR20040091992 A KR 20040091992A
Authority
KR
South Korea
Prior art keywords
unit
image
sensor
signal
map
Prior art date
Application number
KR1020030025791A
Other languages
Korean (ko)
Other versions
KR100562414B1 (en
Inventor
한창의
Original Assignee
싸이트라스텔레콤(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 싸이트라스텔레콤(주) filed Critical 싸이트라스텔레콤(주)
Priority to KR1020030025791A priority Critical patent/KR100562414B1/en
Publication of KR20040091992A publication Critical patent/KR20040091992A/en
Application granted granted Critical
Publication of KR100562414B1 publication Critical patent/KR100562414B1/en

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/005Aiming or laying means with means for correcting the parallax between the sighting means and the muzzle axis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/32Devices for testing or checking
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: A cyber pointer system is provided to precisely aim a gun at a target at night by using a camera and a three-dimensional sensor. CONSTITUTION: A cyber pointer system is composed of a camera(10) mounted to the center of a helmet, a sensor unit(20) having two three-dimensional sensors and a transmitter(23), a pocket PC(2), an input unit(30) for controlling the pocket PC, a microphone(62) and an earphone(61) mounted to the helmet, and a Head-Mounted Display(HMD)(60). The three-dimensional sensors are mounted to a gun, and detect three-dimensional coordinates. The transmitter transmits position and direction data to a main controller(100) in the pocket PC. The pocket PC has a communication module(200), and transmits image data and position data to an inner monitor(50) and the HMD. The HMD is controlled by the pocket PC, and displays a target and an aim image.

Description

사이버 포인터 시스템{CYBER POINTER SYSTEM}Cyber pointer system {CYBER POINTER SYSTEM}

본 발명은 3차원센서를 이용한 가상 조준시스템에 관한 것으로서, 특히 총에 장착된 센서부에서 위치정보 및 방향정보를 측정하여 트랜스미터를 통해 메인콘트롤러로 전송하고, 헬멧에 장착된 미세증폭형 카메라로부터 촬영되는 영상정보를 메인콘트롤러로 전송하며, 상기 센서부의 위치정보 및 방향정보와 미세증폭형 카메라의 영상정보를 HMD에 디스플레이함으로써, 사용자가 상기 HMD의 조준영상을 통해 목표물을 조준할 수 있도록하므로, 시야가 어두운 야간에도 적의 위치를 정확하게 식별하여 조준사격이 가능할 뿐만이 아니라, 총을 눈으로 조준하지 않고 카메라 및센서부를 구성하는 3차원센서를 통해 간접조준함으로써 자신의 위치를 노출시키지 않은 상태에서도 정확한 조준이 가능하며, GPS수신기로부터 수신된 위치정보와 저장장치에 기록된 전자지도를 통해 자신의 현재 위치 및 주변의 환경을 명확하게 식별할 수 있고, 헬멧에 부착된 마이크 및 이어폰을 사용하여 주변의 팀원들과 무선으로 통화할 수 있도록 함으로써 효율적인 작전수행이 가능한 사이버 포인터 시스템(CYBER POINTER SYSTEM)에 관한 것이다.The present invention relates to a virtual aiming system using a three-dimensional sensor, in particular, the position information and direction information from the sensor unit mounted on the gun is measured and transmitted to the main controller through the transmitter, shooting from the micro-amplification type camera mounted on the helmet It transmits the image information to the main controller, and by displaying the position information and orientation information of the sensor unit and the image information of the micro-amplification type camera on the HMD, the user can aim the target through the aiming image of the HMD, Not only is it possible to precisely identify the enemy's position at low dark nights, but also aims precisely, even without revealing its position by indirectly aiming through the three-dimensional sensor that makes up the camera and sensor without aiming the gun with the eyes. Possible to record location information received from GPS receiver and storage device The electronic map allows you to clearly identify your current location and the surrounding environment, and allows you to talk to your teammates wirelessly using the microphone and earphones attached to the helmet, enabling efficient operation. It is about (CYBER POINTER SYSTEM).

야간 전투에서 일방적인 승리를 거두기 위해서는 첨단 야시장비 확보가 필수적이며, 따라서 이것은 오늘날 선진국 군대에 보편화되었다. 전장에서 주야간의 구분이 없어진 현재, 어떠한 악천후 속에서도 사용할 수 있는 센서를 장착하는 군대만이 승리를 장악할 수 있다는 것은 주지의 사실이다.In order to win unilateral victories in night combat, it is essential to have advanced night vision equipment, which has become commonplace in today's advanced military forces. With no distinction between day and night on the battlefield, it is well known that only troops equipped with sensors that can be used in any kind of bad weather can win the victory.

일반적으로 야시 장비에는 두 종류가 있는데 하나는 적외선 영상장비(혹은 열상장비)와 미약한 빛을 증폭하는 장치인 광증폭 야시 장비가 있다.In general, there are two types of night vision equipment, one of which is infrared imaging equipment (or thermal imaging equipment) and light amplification night vision equipment, a device for amplifying weak light.

첫째로, 적외선 영상장비는 절대 온도 0도 이상의 물체는 적외선(열선)을 방출하고 있기 때문에 그 온도차를 적외선 카메라 소자로 감지하여 전기 신호로 변환하여 화면에 표시한다. 열원을 가지고 있는 자동차와 전차, 함선과 항공기, 그리고 인체와 우마와 군용견은 주위보다 온도차가 높아 야간에는 감지될 확률이 높다.First, since infrared imaging equipment emits infrared rays (heat rays) at an object having an absolute temperature of 0 degrees or above, the temperature difference is detected by an infrared camera element, converted into an electric signal, and displayed on the screen. Cars, tanks, ships and aircraft, and humans, horses, and military dogs that have a heat source are more likely to be detected at night due to higher temperature differences than their surroundings.

두 번째로, 광 증폭형 야시장비는 야간의 자연광(별빛과 달빛과 번개)과 인공광(전등 불빛이나 담뱃불 등)의 미소한 빛을 영상 증폭관이라는 특수한 진공관에서 전자로 변환하고 증폭시켜서 형광 화면상에 밝게 표시하는 것이다.Secondly, the optical amplification type night vision equipment converts and amplifies the minute light of night light (starlight, moonlight and lightning) and artificial light (lights, cigarettes, etc.) into electrons in a special vacuum tube called an image amplification tube and displays them on the fluorescent screen. To display brightly.

그러나, 종래의 야시 장비는 전차 또는 총 등에 부착하여 사용자가 직접 눈으로 조준하는 방식이므로, 주변이 어두운 상태에서 단지 적들을 먼저 확인하여 조준할 수 있다는 장점이 있으나, 조준시마다 총을 들어 조준발사과정을 거쳐야 되므로, 사격발사시간이 지체될 뿐만이 아니라, 조준발사시 자신의 위치가 적에게 노출되는 문제점이 있었다.However, the conventional night vision equipment is attached to a tank or a gun, so that the user directly aims the eyes, so in the dark, there is an advantage that only the enemy can be first identified and aimed, but the aiming firing process is carried out every time the aim is aimed at. Because it must go through, not only delayed shooting time, there was a problem that his position is exposed to the enemy during the aiming fire.

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 총의 가늠자와 가늠쇠에 3차원센서로 구성된 센서부를 부착하고 총의 일측 소정부위에 트랜스미터를 부착하여, 상기 트랜스미터에서 센서부를 통해 측정된 방향정보를 메인콘트롤러로 전송함과 동시에 헬멧에 장착되는 미세증폭형 카메라로부터 촬영되는 영상정보를 메인콘트롤러로 전송하여, 상기 센서부의 위치정보 및 방향정보와 미세증폭형 카메라의 영상정보를 HMD에 디스플레이함으로써, 사용자가 상기 HMD의 조준영상을 통해 목표물을 조준할 수 있도록하며, GPS수신기로부터 수신된 위치정보와 저장장치에 기록된 전자지도를 통해 자신의 현재 위치 및 주변의 환경을 명확하게 식별할 수 있고, 헬멧에 부착된 마이크 및 이어폰을 사용하여 주변의 팀원들과 무선으로 통화할 수 있도록 한 사이버 포인터 시스템을 제공함에 그 목적이 있다.The present invention has been made to solve the above problems, attached to the sensor unit consisting of a three-dimensional sensor to the scale and the scale of the gun and a transmitter attached to a predetermined portion of one side of the gun, the direction measured through the sensor unit in the transmitter By transmitting the information to the main controller and at the same time the image information taken from the micro-amplification type camera mounted on the helmet to the main controller, by displaying the position information and direction information of the sensor unit and the image information of the micro-amplification type camera on the HMD The user can aim the target through the aiming image of the HMD, and can clearly identify his current location and surrounding environment through the location information received from the GPS receiver and the electronic map recorded in the storage device. , And use the microphone and earphones attached to your helmet to talk wirelessly with team members nearby To provide a cyber-pointer system to have its purpose.

도 1은 본 발명에 의한 사이버 포인터 시스템을 개략적으로 나타내는 블록구성도,1 is a block diagram schematically showing a cyber pointer system according to the present invention;

도 2는 도 1에 도시된 메인콘트롤러에서 수행되는 신호처리과정을 개략적으로 나타내는 블록구성도,FIG. 2 is a block diagram schematically illustrating a signal processing process performed in the main controller shown in FIG. 1;

도 3은 도 1에 도시된 통신모률에서 수행되는 신호처리과정을 개략적으로 나타내는 블록구성도,3 is a block diagram schematically illustrating a signal processing process performed at the communication module rate shown in FIG. 1;

도 4는 본 발명에 의한 사이버 포인터 시스템이 구현된 HMD를 착용한 상태를 개략적으로 나타낸 도시도,Figure 4 is a schematic diagram showing a state wearing a HMD embodied in the cyber pointer system according to the present invention,

도 5는 본 발명에 의한 사이버 포인터 시스템이 구현된 총을 개략적으로 나타낸 도시도,5 is a schematic view showing a gun implemented with a cyber pointer system according to the present invention;

도 6a는 본 발명의 미세증폭형 카메라에서 표적물을 촬영함과 동시에 총이 표적물을 조준하고 있는 상태를 개략적으로 나타내는 도시도,6A is a schematic view showing a state in which a gun is aiming at a target while simultaneously photographing a target in the microamplification camera of the present invention;

도 6b는 본 발명의 HMD상에 표적물이 조준된 화면을 개략적으로 나타내는 도시도,Figure 6b is a schematic diagram showing a screen aimed at the target on the HMD of the present invention,

도 7은 본 발명의 미세증폭형 카메라에서 3차원센서A,B와 표적물이 응시평면상에 함께 표시되는 것을 개략적으로 나타낸 좌표도이다.7 is a coordinate diagram schematically showing that the 3D sensors A and B and the target are displayed together on the gaze plane in the micro-amplification type camera of the present invention.

<도면의 주요부분에 대한 부호의 간단한 설명><Brief description of symbols for the main parts of the drawings>

1: 헬멧 2: 포켓PC1: helmet 2: Pocket PC

3: 플렉시블 케이블 4: 표적물3: flexible cable 4: target

5: 총 6: 가늠자5: total 6: scale

7: 가늠쇠7: scale

10: 미세증폭형 카메라10: Micro Amplification Camera

20: 센서부 21: 3차원센서A20: sensor unit 21: three-dimensional sensor A

22: 3차원센서B 23: 트랜스미터(Tx)22: 3D sensor B 23: transmitter (Tx)

24: 조준표시A 25: 조준표시B24: Aiming mark A 25: Aiming mark B

30: 입력장치 31: 트랜스미터(Tx)30: input device 31: transmitter (Tx)

40: GPS수신기 41: GPS안테나40: GPS receiver 41: GPS antenna

50: 내부모니터 60: HMD50: internal monitor 60: HMD

61: 이어폰 62: 마이크61: earphone 62: microphone

100: 메인콘트롤러 101: 리시버(Rx)100: main controller 101: receiver (Rx)

103: 램(RAM) 104: 저장장치103: RAM 104: Storage Device

105: 롬(ROM)105: ROM

110: 위치계산부 111: 좌표계산부110: position calculation unit 111: coordinate calculation unit

112: 위치 및 좌표보정부 120: 지도선택부112: position and coordinate correction 120: map selector

121: 지도변경부 122: 지도확대부121: map changing unit 122: map expanding unit

130: 영상신호입력부 131: 영상신호변환부130: video signal input unit 131: video signal conversion unit

140: 센서신호입력부 141: 센서신호변환부140: sensor signal input unit 141: sensor signal conversion unit

150: 조준영상합성부 160: 디스플레이제어부150: aiming image synthesis unit 160: display control unit

170: 영상출력부170: video output unit

200: 통신모듈 201: 안테나200: communication module 201: antenna

210: 통신주파수 설정부 220: 음성신호입력부210: communication frequency setting unit 220: voice signal input unit

230: 음성신호출력부 240: 암호화처리부230: voice signal output unit 240: encryption processing unit

250: 음성신호변환부 260: 신호송신부250: voice signal conversion unit 260: signal transmission unit

270: 신호수신부270: signal receiver

이하에서 첨부된 도면에 의해 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 의한 사이버 포인터 시스템을 개략적으로 나타내는 블록구성도이고, 도 2는 도 1에 도시된 메인콘트롤러에서 수행되는 신호처리과정을 개략적으로 나타내는 블록구성도이고, 도 3은 도 1에 도시된 통신모률에서 수행되는 신호처리과정을 개략적으로 나타내는 블록구성도이고, 도 4는 본 발명에 의한 사이버 포인터 시스템이 구현된 HMD를 착용한 상태를 개략적으로 나타낸 도시도이고, 도 5는 본 발명에 의한 사이버 포인터 시스템이 구현된 총을 개략적으로 나타낸 도시도이고, 도 6a는 본 발명의 미세증폭형 카메라에서 표적물을 촬영함과 동시에 총이 표적물을 조준하고 있는 상태를 개략적으로 나타내는 도시도이고, 도 6b는 본 발명의 HMD상에 표적물이 조준된 화면을 개략적으로 나타내는 도시도이고, 도 7은 본 발명의 미세증폭형 카메라에서 3차원센서A,B(21, 22)와 표적물이 응시평면상에 함께 표시되는 것을 개략적으로 나타낸 좌표도이다.FIG. 1 is a block diagram schematically illustrating a cyber pointer system according to the present invention, FIG. 2 is a block diagram schematically illustrating a signal processing process performed by the main controller shown in FIG. 1, and FIG. FIG. 4 is a block diagram schematically illustrating a signal processing process performed in the illustrated communication rate, FIG. 4 is a diagram schematically showing a state of wearing a HMD in which a cyber pointer system according to the present invention is implemented, and FIG. FIG. 6A is a diagram schematically illustrating a gun in which a cyber pointer system is implemented, and FIG. 6A schematically illustrates a state in which a gun is aiming at a target while simultaneously shooting a target in the microamplification camera of the present invention. 6B is a schematic view showing a screen aimed at a target on the HMD of the present invention, and FIG. 7 is a micro-amplified car of the present invention. 3D sensor in LA A, B (21, 22) and is schematically shown that the coordinates are displayed together on the targets to take plane.

본 발명에 의한 사이버 포인터 시스템은 도 1에 도시된 바와 같이 헬멧(1)의 중앙부에 장착되며, 낮은 광량에서도 촬영가능한 미세증폭형 카메라(10)와; 총(5)의 가늠자(6)와 가늠쇠(7)에 장착되며 기준위치에 대한 3차원 좌표값을 갖는 2개의 3차원센서(21, 22)와, 상기 3차원센서(21, 22)에서 측정된 위치정보 및 방향정보를포켓PC(2)의 메인콘트롤러(100)로 전송하는 트랜스미터(23)로 구성된 센서부(20)와; 상기 트랜스미터(23)에서 전달된 위치정보에 따라 소정의 연산과정을 수행한 후, 미세증폭형 카메라(10)에서 전달된 영상과 센서부(20)에서 전달된 위치정보를 내부모니터(50)와 HMD(60)에 표시하며, 통신모듈(200)을 통해 무선신호를 송수신하는 포켓PC(2)와; 별도의 키패드 및 명령버튼(도시되지 않음)을 구비함으로써 상기 포켓PC(2)를 외부에서 제어하는 입력장치(30)와; 헬멧(1)에 장착되며, 상기 포켓PC(2)에 내장된 통신모듈을 통해 팀원과 무선으로 대화를 소통하는 마이크(62) 및 이어폰(61)과; 안경 또는 고글의 형태로 제작되어 사용자가 착용함으로써 상기 포켓PC(2)의 제어에 의해 표적물(4)과 조준영상이 디스플레이되는 HMD(60)로 구성되어 있다.The cyber pointer system according to the present invention includes a micro-amplification type camera 10 mounted at the center of the helmet 1 as shown in FIG. Two three-dimensional sensors (21, 22) mounted on the scale (6) and the scale (7) of the gun (5) and having a three-dimensional coordinate value with respect to the reference position, and measured by the three-dimensional sensors (21, 22) A sensor unit 20 composed of a transmitter 23 for transmitting the received position information and direction information to the main controller 100 of the pocket PC 2; After performing a predetermined calculation process according to the position information transmitted from the transmitter 23, the image transmitted from the micro-amplification type camera 10 and the position information transmitted from the sensor unit 20 and the internal monitor 50 and A pocket PC (2) displayed on the HMD (60) and transmitting / receiving a radio signal through the communication module (200); An input device 30 for externally controlling the Pocket PC 2 by having a separate keypad and command buttons (not shown); A microphone (62) and earphone (61) mounted on the helmet (1) and communicating with a team member wirelessly through a communication module built in the pocket PC (2); Made of glasses or goggles and worn by the user, the target 4 and the target image are displayed under the control of the pocket PC 2, and consists of the HMD 60.

본 발명에 의한 사이버 포인터 시스템은 일 실시례로서 도 4에 도시된 바와 같이 헬멧(1)에 장착되는 안테나(41, 201)를 통해 통신송수신 및 GPS수신을 하며, 헬멧(1)의 중앙부에 구비된 카메라(10)를 통해 촬영된 영상과 센서부(20)에서 트랜스미터(23)를 통해 전달된 위치정보가 합성되어 눈에 착용한 HMD(60)를 통해 디스플레이되며, 마이크(62)와 이어폰(61)을 통해 팀원과 무선으로 통화할 수 있도록 구현된다.As an example, the cyber pointer system according to the present invention performs communication transmission and GPS reception through the antennas 41 and 201 mounted on the helmet 1 as shown in FIG. 4, and is provided at the center of the helmet 1. The image captured by the camera 10 and the position information transmitted through the transmitter 23 from the sensor unit 20 are synthesized and displayed through the HMD 60 worn on the eye, and the microphone 62 and the earphone ( 61), it is implemented to talk wirelessly with team members.

상기 3차원센서(21, 22)란 기준위치에 대한 3차원 좌표값을 갖는 센서를 의미하는 것으로서, 초음파센서, GPS센서, 광학적센서, 자기장센서, 기계방식센서 등기준위치에 대한 거리 및 위치를 확인할 수 있는 어떠한 센서를 사용해도 가능하며, 본 발명에서는 트랜스미터를 사용하여 위치정보를 송신하는 방식이므로 초음파센서 또는 GPS센서를 사용하는 것이 바람직하다.The three-dimensional sensor (21, 22) refers to a sensor having a three-dimensional coordinate value with respect to the reference position, and the distance and position with respect to the reference position, such as ultrasonic sensor, GPS sensor, optical sensor, magnetic field sensor, mechanical type sensor It is possible to use any sensor that can be identified, and in the present invention, it is preferable to use an ultrasonic sensor or a GPS sensor because the method of transmitting position information using a transmitter.

상기 미세증폭형 카메라(10)는 인간의 눈으로 감지할 수 없는 강도 및 파장(0.9㎛의 근적외선)의 빛을 눈으로 볼 수 있도록 미광을 증폭하여 촬영하는 카메라로서, 사용자의 시각과 거의 일치할 수 있도록 헬멧(1)의 전면 중앙부에 설치된다.The micro-amplification type camera 10 is a camera that amplifies and photographs stray light so that the human eye can see light having an intensity and wavelength (Near Infrared of 0.9 μm) that cannot be detected by the human eye. It is installed in the front center of the helmet (1).

상기 입력장치(30)는 트랜스미터(31)를 사용하는 무선방식으로서 손목에 차거나 주머니에 넣음으로써 휴대가 가능한 방식이 바람직하며, 1∼10까지의 키패드 또는 명령버튼(도시되지 않음)을 구비함으로써 포켓PC(2)에 상기 버튼에 지정된 동작을 명령하거나, 필요할 경우 포켓PC(2)에 사용자암호를 입력하는 용도로 사용할 수도 있다.The input device 30 is a wireless method using the transmitter 31, which is preferably portable by putting it on a wrist or in a pocket, and having a keypad or command button (not shown) of 1 to 10 so as to provide a pocket. It may be used for instructing the PC 2 to operate the button or for inputting a user password to the Pocket PC 2 if necessary.

상기 HMD(Head-Mounted Display)(60)는 최근에 개발되어 군사용, 의료용 또는 개인적인 디스플레이의 용도로 사용되는 광학적인 디스플레이 시스템으로서, 두부 장착형 디스플레이(頭部裝着型 display)하고 하며, 보안경이나 헬멧형으로 눈앞에 있는 스크린을 보는 영상 장치이므로 사용자는 이동하면서도 영상정보를 전달받을 수 있게 된다.The head-mounted display (HMD) 60 is an optical display system that has been recently developed and used for military, medical, or personal displays. The head-mounted display (HMD) 60 is a head mounted display. As it is an image device for viewing the screen in front of the eyes, the user can receive image information while moving.

한편, 상기 포켓PC(2)는 도 2에 도시된 바와 같이 센서부(20) 및 입력장치(30)의 트랜스미터(31)에서 무선으로 송출된 신호를 수신하는 리시버(101)와; 상기 미세증폭형 카메라(10)와 센서부(20) 및 입력장치(30)로부터 전달된 영상정보, 위치정보 및 제어정보를 통해 영상을 합성하여 HMD(60)와 내부모니터(50)에 디스플레이함과 동시에 사용자의 선택에 따라 저장장치(104)에 저장된 지도데이타를 출력하는 메인콘트롤러(100)와; 버퍼링(buffering)과정을 통해 상기 메인콘트롤러(100)에서의 데이타흐름을 조절하는 램(103)과; 전자화된 지도데이타를 저장하고 있으며 메인콘트롤러(100)의 제어신호에 따라 선택된 구역의 지도데이타를 출력하는 저장장치(104)와; 상기 메인콘트롤러(100)가 구동되는 프로그램을 저장하고 있는 롬(105)과; 외부의 팀원과 무선으로 통화할 수 있도록 통신채널을 형성하는 통신모듈(200)로 구성되어 있다.On the other hand, the pocket PC (2) includes a receiver 101 for receiving a signal transmitted wirelessly from the transmitter unit 31 of the sensor unit 20 and the input device 30, as shown in FIG. The image is synthesized through the image information, the position information, and the control information transmitted from the micro-amplification type camera 10, the sensor unit 20, and the input device 30, and displayed on the HMD 60 and the internal monitor 50. And at the same time the main controller 100 for outputting the map data stored in the storage device 104 according to the user's selection; A RAM 103 for controlling data flow in the main controller 100 through a buffering process; A storage device 104 which stores the electronic map data and outputs map data of the selected area according to a control signal of the main controller 100; A ROM 105 which stores a program in which the main controller 100 is driven; Consists of a communication module 200 for forming a communication channel so as to communicate with an external team member wirelessly.

또한, 포켓PC(2)는 자유롭게 길이가 연장되는 플렉시블(flexible) 케이블(3)에 의해 안테나, 이어폰(61), 마이크(62), HMD(60)와 유선으로 연결되며, 별도의 내부모니터(50)를 통해 미세증폭형 카메라(10) 및 3차원센서(21, 22)의 정보를 디스플레이하게 되는데, 상기 유선방식 대신에 별도의 송수신기를 부착하여 무선방식으로도 교체사용이 가능하다.In addition, the Pocket PC 2 is connected to the antenna, earphone 61, the microphone 62, the HMD 60 by wire by a flexible cable (3) extending freely, a separate internal monitor ( 50) to display the information of the micro-amplification type camera 10 and the three-dimensional sensor (21, 22), it is possible to replace the use of the wireless method by attaching a separate transceiver instead of the wired method.

한편, 본발명에 의한 메인콘트롤러(100)에서는 GPS수신기(40)로부터 전달된좌표값과, 저장장치(104)로부터 전달된 지도데이타와, 입력장치(30)로부터 전달된 입력신호와, 미세증폭형 카메라(10)로부터 전달된 영상신호와, 센서부(20)로부터 전달된 총(5)의 방향정보를 통해 현재 총(5)이 조준하고 있는 표적물(4)의 영상과 총(5)의 조준영상 및 사용자가 선택한 지도영상을 사용자의 HMD(60) 및 내부모니터(50)로 디스플레이하게 된다.On the other hand, in the main controller 100 according to the present invention, the coordinate value transmitted from the GPS receiver 40, the map data transmitted from the storage device 104, the input signal transmitted from the input device 30, and the fine amplification The image and the gun 5 of the target 4 currently being aimed by the gun 5 through the video signal transmitted from the camera 10 and the direction information of the gun 5 transmitted from the sensor unit 20. The aiming image and the map image selected by the user are displayed on the user's HMD (60) and the internal monitor (50).

본 발명에 의한 메인콘트롤러(100)는 도 2에 도시된 바와 같이 위치계산수단과, 지도표시수단과, 영상신호변환수단과, 센서신호변환수단, 영상합성 및 영상출력수단으로 구성된다.As shown in FIG. 2, the main controller 100 according to the present invention includes position calculation means, map display means, image signal conversion means, sensor signal conversion means, image synthesis and image output means.

상기 위치계산수단은 센서부(20)를 구성하는 각각의 3차원센서에서 전달된 무선신호를 통해 현재 각 센서의 정확한 위치를 계산하는 위치계산부(110)와, 상기 GPS안테나(41) 및 GPS수신기(40)로부터 수신된 정보에 따라 사용자의 현재 위치에 대한 좌표를 계산하는 좌표계산부(111)와, 상기 위치계산부(110) 및 좌표계산부(111)를 통해 계산된 위치 및 좌표를 영점조정된 기준위치와 비교하여 총(5)의 조준점이 향하고 있는 정확한 방향을 계산하는 위치 및 좌표보정부(112)을 포함한다.The position calculating means includes a position calculating unit 110 that calculates an accurate position of each sensor based on a wireless signal transmitted from each of the three-dimensional sensors constituting the sensor unit 20, the GPS antenna 41 and the GPS. Zero adjustment of the coordinate calculation unit 111 for calculating the coordinates of the current position of the user according to the information received from the receiver 40, the position and coordinates calculated by the position calculation unit 110 and the coordinate calculation unit 111 A position and coordinate correction 112 for calculating the exact direction in which the aiming point of the gun 5 is directed relative to the reference position.

또한, 지도표시수단은 상기 저장장치(104)에 미리 기억되어 있는 지도데이타중에서 사용자의 선택에 따라 원하는 지역을 선택하는 지도선택부(120)와, 필요에 따라 다른 지역의 지도를 선택하는 지도변경부(121)와, 최종적으로 선택된 지도를사용자가 시각적으로 인식할 수 있도록 확대하는 지도확대부(122)를 포함한다.In addition, the map display means includes a map selection unit 120 for selecting a desired region according to a user's selection from among map data previously stored in the storage device 104, and a map change for selecting a map of another region as needed. A unit 121 and a map expanding unit 122 for enlarging the finally selected map so that the user can visually recognize.

영상신호변환수단은 미세증폭형 카메라(10)로부터 전달된 영상신호를 입력받는 영상신호입력부(130)와, 상기 영상신호에서 노이즈를 제거하고 증폭한 후, 영상합성이 용이하도록 디지털신호로 변환시키는 일련의 신호처리과정을 수행하는 영상신호변환부(131)를 포함한다.The image signal converting means includes an image signal input unit 130 receiving the image signal transmitted from the micro-amplification type camera 10, and removing and amplifying the noise from the image signal and converting the image signal into a digital signal for easy image synthesis. An image signal converter 131 performs a series of signal processing.

센서신호변환수단은 상기 3차원센서(21, 22)에서 전달된 위치정보를 무선으로 입력받는 센서신호입력부(140)와, 상기 위치정보를 디지털신호로 변환하는 센서신호변환부(141)를 포함한다.The sensor signal converting means includes a sensor signal input unit 140 for wirelessly receiving the position information transmitted from the 3D sensors 21 and 22 and a sensor signal converting unit 141 for converting the position information into a digital signal. do.

또한, 영상합성 및 출력수단은 상기 영상신호 변환부(130)와 센서신호변환부(140)에서 입력된 영상을 합성하여 표적물(4)에 대한 조준표시를 형성하는 조준영상합성부(150)와, 위치 및 좌표보정부(112)에서 전달된 제어신호와 지도확대부(122)에서 전달된 지도데이타와 조준영상합성부(150)에서 전달된 영상신호를 동시에 또는 선택적으로 출력할 수 있도록 신호제어를 수행하는 디스플레이 제어부(160)와, 상기 디스플레이 제어부(160)의 제어신호에 따라 HMD(60) 및 내부모니터(50)로 영상신호를 출력하는 영상출력부(170)를 포함한다.In addition, the image synthesis and output means is a target image synthesis unit 150 for synthesizing the image input from the image signal conversion unit 130 and the sensor signal conversion unit 140 to form the aiming display for the target (4) And a signal for simultaneously or selectively outputting the control signal transmitted from the position and coordinate correction unit 112 and the map data transmitted from the map expanding unit 122 and the image signal transmitted from the aiming image synthesis unit 150. The display controller 160 performs control, and the image output unit 170 outputs an image signal to the HMD 60 and the internal monitor 50 according to the control signal of the display controller 160.

한편, 상기 3차원센서(21, 22)의 위치정보는 센서신호변환부(141)에서 조준신호로 변환되는데, 본 발명의 일 실시례로서, 가늠자(6)에 부착된 3차원센서A(21)는 조준표시A(24) "○ "으로 표시되고, 가늠쇠(7)에 부착된 3차원센서B(22)는 조준표시B(25) "+ "로 표시됨으로써, 상기 각각의 3차원센서(21, 22)가 합성되면 ""의 합성조준표시로 나타나게 되며, 상기 합성조준표시와 표적물(4)이 일치하는 경우가 조준이 완료된 상태가 된다.On the other hand, the position information of the three-dimensional sensor (21, 22) is converted into the aiming signal in the sensor signal conversion unit 141, as an embodiment of the present invention, the three-dimensional sensor A (21) attached to the scale (6) ) Is indicated by the aiming indicator A (24) "○ &quot;, and the three-dimensional sensor B (22) attached to the bracket (7) is indicated by the aiming indicator (B 25) " + " 21, 22) are synthesized Is indicated by the composite aiming display, and the case where the synthetic aiming display and the target 4 coincide with each other is in a state where the aiming is completed.

즉, 메인콘트롤러(100)에서는 상기 가늠자(6) 및 가늠쇠(7)에 부착된 3차원센서(21, 22)의 위치정보와, 벡터성분(방향성분)을 연산하여 현재 총(5)이 향하고 있는 방향을 계산하고, 상기 총(5)과 미세증폭형 카메라(10)와의 위치좌표를 실시간으로 보정하여 현재 총(5)이 향하는 방향을 미세증폭형 카메라(10)에서 촬영된 영상에 합성하게 된다.That is, the main controller 100 calculates the position information and the vector component (direction component) of the three-dimensional sensors 21 and 22 attached to the scale 6 and the scale 7, and the current gun 5 is directed. Calculate the direction, and correct the position coordinates of the gun (5) and the micro-amplification type camera 10 in real time to synthesize the direction the current gun (5) is directed to the image taken by the micro-amplification type camera (10) do.

한편, 도 3에 도시된 바와 같이 통신모듈(200)에서는 포켓PC(2)를 통해 지정된 통신주파수를 조절하는 통신주파수설정부(210)와, 마이크(62)를 통해 음성신호를 입력받는 음성신호입력부(220)와, 상기 입력된 음성신호를 송출가능하도록 변환하는 음성신호변환부(250)와, 상기 변환된 음성신호를 암호화하는 암호화처리부(240)와, 상기 암호화된 음성신호를 외부로 무선송신하는 신호송신부(260)와, 외부에서 송신된 무선신호를 수신하는 신호수신부(270)와, 상기 수신된 음성신호를 암호화처리부(240) 및 음성신호변환부(250)를 통해 암호해독후 음성신호로 변환하여 이어폰(61)을 통해 출력하는 음성신호출력부(230)로 구성되어 있다.Meanwhile, as shown in FIG. 3, in the communication module 200, a voice signal receiving a voice signal through a communication frequency setting unit 210 and a microphone 62 for adjusting a communication frequency designated through the pocket PC 2. An input unit 220, a voice signal converter 250 for converting the input voice signal to be transmitted, an encryption processor 240 for encrypting the converted voice signal, and the encrypted voice signal to the outside The signal transmitter 260 to transmit, the signal receiver 270 to receive an externally transmitted wireless signal, and the received voice signal through the encryption processing unit 240 and the voice signal conversion unit 250 after decrypting the voice. It is composed of a voice signal output unit 230 to convert the signal to output through the earphone (61).

상기 통신모듈(200)을 통해 같은 주파수를 사용하는 팀원간에는 자유롭게 무선통화를 수행할 수 있게 되는데, 통신모듈(200)의 기본적인 구성은 공지된 기술이므로 이하에서 자세한 설명은 생략한다.It is possible to perform a wireless call freely between team members using the same frequency through the communication module 200. Since the basic configuration of the communication module 200 is a known technology, a detailed description thereof will be omitted below.

한편, 본 발명에서는 일 실시례로서 도 5에 도시된 바와 같이 총(5)의 가늠자(6)와 가늠쇠(7)에 각각 3차원센서(21, 22)를 장착하고, 총(5)의 하부 소정부위에 트랜스미터(23)를 장착하였는데, 상기 3차원센서(21, 22)의 위치에 따라 최초 영점조정이 미리 수행되므로, 상기 3차원센서(21, 22) 및 트랜스미터(23)의 위치는 설치단계에서 자유롭게 조절할 수 있다.Meanwhile, in the present invention, as shown in FIG. 5, three-dimensional sensors 21 and 22 are mounted on the scale 6 and the scale 7 of the gun 5, respectively, and the lower part of the gun 5 is shown. Although the transmitter 23 is mounted on a predetermined portion, since the initial zero adjustment is performed in advance according to the positions of the three-dimensional sensors 21 and 22, the positions of the three-dimensional sensors 21 and 22 and the transmitter 23 are installed. Freely adjustable in stages.

따라서, 도 6a에 도시된 바와 같이 미세증폭형 카메라(10)에서 표적물(4)의 영상을 촬영하고, 총(5)의 3차원센서(21, 22)에서 표적물(4)의 방향을 확인하여 도 6b에 도시된 바와 같이 표적물(4)의 중심에 조준영상이 나타나도록 영점조정을 수행하게 되면, 그 이후에는 상기 영점조정된 기준위치에 따라 메인콘트롤러(100)에서는 실시간으로 좌표보정을 수행하므로 항상 정확한 조준영상을 얻을 수 있게 된다.Accordingly, as shown in FIG. 6A, the image of the target 4 is photographed by the micro-amplification type camera 10, and the direction of the target 4 is adjusted by the three-dimensional sensors 21 and 22 of the gun 5. When the zero adjustment is performed so that the aimed image appears in the center of the target 4 as shown in FIG. 6B, the coordinates are corrected in real time in the main controller 100 according to the zeroed reference position thereafter. As a result, the correct aiming image is always obtained.

즉, 상기 3차원센서(21, 22)의 위치정보 및 벡터성분을 사용하여 총(5)의 방향을 연산하는 과정은 몇가지 수학적 변환과정에 의해 가능한데, 본 발명에서는 일 실시례로서, 도 7에 도시된 벡터 투영법을 사용한다.That is, the process of calculating the direction of the gun 5 by using the position information and the vector components of the three-dimensional sensor (21, 22) is possible by several mathematical conversion process, in the present invention, as an embodiment, Use the illustrated vector projection.

상기 벡터 투영법(Vector Projection)은 지도투영(Map Projection)중 특히 방위투영법(azimuthal projection)을 응용하여 기준위치에 대해 총(5)의 방위각(방향)이 같도록 나타내는 방법이다.The Vector Projection is a method in which the azimuthal projection is applied to map reference so that the azimuth (direction) of the gun 5 is the same with respect to the reference position.

상기 방위투영법은 원점으로부터의 방위각(방향)이 같도록 나타내는 방법으로서, 3차원센서(21, 22)의 좌표를 응시평면S 상에 직접투영하게 된다.The azimuth projection method is a method in which the azimuth angle (direction) from the origin is the same, and the coordinates of the three-dimensional sensors 21 and 22 are directly projected on the gaze plane S.

즉, 미세증폭형 카메라(10)에서 촬영되는 응시평면S에 3차원센서(21, 22)에서 측정된 좌표값을 투영하여 상기 3차원센서의 위치를 2차원적으로 표현하는 것이다.That is, the coordinate values measured by the 3D sensors 21 and 22 are projected onto the gaze plane S photographed by the micro-amplification type camera 10 to express the position of the 3D sensor two-dimensionally.

물론, 최초에 응시평면S에 나타나는 표적물(4)과 3차원센서(21, 22)의 중심을 일치시킨 기준값에 따라 영점조정을 통해 설정해 놓으면, 추후 변동되는 3차원센서(21, 22)의 위치는 좌표보정을 통해 실시간으로 보정된다.Of course, if it is set through the zero point adjustment according to the reference value that matched the center of the target 4 and the three-dimensional sensor (21, 22) first appearing in the gaze plane S, the three-dimensional sensor (21, 22) The position is corrected in real time through coordinate correction.

도7에서는 수학적분석을 위한 좌표계의 설정 및 가늠자(6)에 위치한 3차원센서A(21), 가늠쇠(7)에 위치한 3차원센서B(22)를 나타내었다.In FIG. 7, a three-dimensional sensor A 21 positioned on the scale 6 and a three-dimensional sensor B 22 positioned on the scale 7 are shown.

여기서 수식들의 전개에 쓰이는 모든 위치좌표 또는 위치벡터들은 설명의 편의를 위해 3차원 기준좌표계(X,Y,Z)에 대해 전개하는데, 미세증폭형 카메라의 위치를 기준위치인 좌표값 (0,0,0)으로 설정하면, T(XT,YT,ZT)는 표적물(4)의 좌표이고, A(X1,Y1,Z1)는 가늠자(6)에 위치한 3차원센서A(21)의 좌표이며, B(X2,Y2,Z2)는 가늠쇠(7)에 위치한 3차원센서B(22)의 좌표이다.Here, all positional coordinates or positional vectors used for the development of the equations are expanded with respect to the three-dimensional reference coordinate system (X, Y, Z) for the convenience of explanation. When set to, 0), T (X T , Y T , Z T ) is the coordinate of the target (4), and A (X 1 , Y 1 , Z 1 ) is the three-dimensional sensor A located on the scale (6). Coordinate of (21), B (X 2 , Y 2 , Z 2 ) is the coordinate of the three-dimensional sensor B (22) located on the scale (7).

또한, 응시평면 S는 미세증폭형 카메라(10)와 표적물(4)을 연결하는와, 가늠자(6)에 위치한 3차원센서A(21)의에서로 수직하게 투영한로 이루어지며, 상기 가늠자(6)에 위치한 3차원센서A(21)는 응시평면에 "○"으로 표시되고, 상기 가늠쇠(7)에 위치한 3차원센서B(22)는 응시평면에 "+"로 표시된다.Also, the gaze plane S connects the micro-amplification type camera 10 and the target 4. W, the three-dimensional sensor A (21) located on the scale (6) in Projected vertically 3D sensor A (21) located on the scale (6) is indicated by "○" on the gaze plane, the three-dimensional sensor B (22) located on the gaze (7) is "+" on the gaze plane Is displayed.

이때, 영점 조정을 통해 상기 3차원센서A(21)와 3차원센서B(22)를 잇는 벡터의 방향이 표적물(4)의 중심을 향하게 되면, 응시평면 S에서는 표적물(4)의 중앙에 ""표시가 나타나게 된다.At this time, the vector connecting the three-dimensional sensor A (21) and the three-dimensional sensor B (22) by adjusting the zero point When the direction of is directed toward the center of the target 4, in the gaze plane S the center of the target 4 " Will be displayed.

만일 표적물(4)의 위치가 이동될 때, 또는 3차원센서A,B(21, 22)의 위치가 이동될 때는 영점조정된 기준좌표를 중심으로 좌표보정과정이 수행되며, 상기 보정된 좌표에 따라 응시평면에 3차원센서A, B(21, 22)에 의한 조준표시A(24)가 "○ "으로 조준표시B(25)가 "+ "으로 나타나게 되며, 이때 사용자가 상기 총(5)의 방향을 움직이는 것에 따라 표적물(4)이 재조준된다.When the position of the target 4 is moved, or when the positions of the 3D sensors A, B (21, 22) are moved, a coordinate correction process is performed around the zero coordinate reference coordinate, and the corrected coordinates According to the gaze plane, the aiming display A (24) by the three-dimensional sensor A, B (21, 22) is displayed as "○", the aiming display B (25) is displayed as "+", and the user The target 4 is aimed again as it moves in the direction of.

상기 좌표보정과정은 영점조정된 위치에 대한 3차원센서의 각도변화를 통해 좌표보정이 수행되며, 이에 대한 수학적 계산방법은 공지의 기술이므로 상세한 설명은 생략한다.The coordinate correction process is carried out through the angle change of the three-dimensional sensor with respect to the zero-adjusted position, the mathematical calculation method for this is a well-known technique, detailed description thereof will be omitted.

즉, 상기 응시평면 S는 미세증폭형 카메라(10)에서 표적물(4)을 촬영할 때 HMD(60) 및 내부모니터(50)에 나타나는 화면으로서, 상기 응시평면상에 나타나는 표적물(4)과 조준표시는 사용자의 HMD(60) 및 내부모니터(50)에 실시간으로 표시되므로, 사용자가 직접 눈으로 총을 조준하지 않고 HMD(60) 또는 내부모니터(50)만 사용하더라도 정확한 조준이 가능하게 된다.That is, the gaze plane S is a screen appearing on the HMD 60 and the internal monitor 50 when the target 4 is photographed by the micro-amplification type camera 10, and the target 4 appears on the gaze plane. Since the aiming display is displayed in real time on the user's HMD 60 and the internal monitor 50, accurate aiming is possible even if the user uses only the HMD 60 or the internal monitor 50 without directly aiming the gun. .

본 발명에 의한 사이버 포인터 시스템은 총(5)의 가늠자(6)와 가늠쇠(7)에 3차원센서(21, 22)로 구성된 센서부(20)를 부착하고 총(5)의 일측 소정부위에 트랜스미터(23)를 부착하여, 상기 트랜스미터(23)에서 센서부(20)를 통해 측정된 위치정보 및 방향정보를 메인콘트롤러(100)로 전송함과 동시에 헬멧(1)에 장착되는 미세증폭형 카메라(10)로부터 촬영되는 영상정보를 메인콘트롤러(100)로 전송하며, 상기 센서부(20)의 위치정보 및 방향정보와 미세증폭형 카메라(10)의 영상정보를HMD(60)에 디스플레이함으로써, 사용자가 상기 HMD(60)의 조준영상을 통해 목표물을 조준할 수 있도록하므로, 시야가 어두운 야간에도 적의 위치를 정확하게 식별하여 조준사격이 가능할 뿐만이 아니라, 총(5)을 눈으로 조준하지 않고 카메라(10) 및 3차원센서(21, 22)를 통해 간접조준함으로써 자신의 위치를 노출시키지 않은 상태에서도 정확한 조준이 가능한 효과가 있다.The cyber pointer system according to the present invention attaches the sensor unit 20 consisting of the three-dimensional sensors 21 and 22 to the scale 6 and the scale 7 of the gun 5 and to a predetermined portion of one side of the gun 5. Attached to the transmitter 23, the micro-amplification type camera mounted on the helmet (1) while transmitting the position information and direction information measured by the sensor unit 20 from the transmitter 23 to the main controller (100) By transmitting the image information taken from the (10) to the main controller 100, by displaying the position information and direction information of the sensor unit 20 and the image information of the micro-amplification type camera 10 on the HMD (60), Since the user can aim the target through the aiming image of the HMD 60, the target position can be precisely identified by accurately identifying the enemy's position even at night when the field of view is dark, and the camera 5 is not aimed at the gun without eye. 10) and indirect aiming through the three-dimensional sensor (21, 22) Accurate aiming is effective even without exposing your position.

또한, 본 발명에 의한 사이버 포인터 시스템은 GPS수신기(40)로부터 수신된 위치정보와 저장장치(104)에 기록된 전자지도를 통해 자신의 현재 위치 및 주변의 환경을 명확하게 식별할 수 있고, 헬멧(1)에 부착된 마이크(62) 및 이어폰(61)을 사용하여 주변의 팀원들과 무선으로 통화할 수 있도록 함으로써 효율적인 작전수행이 가능한 효과가 있다.In addition, the cyber pointer system according to the present invention can clearly identify its current location and the surrounding environment through the location information received from the GPS receiver 40 and the electronic map recorded in the storage device 104, the helmet By using the microphone 62 and the earphone 61 attached to (1), it is possible to perform efficient operation by enabling wireless communication with nearby team members.

Claims (3)

가상 조준시스템에 있어서,In the virtual aiming system, 헬멧의 전면 중앙부에 장착되며, 낮은 광량에서도 촬영가능한 미세증폭형 카메라와;A micro-amplification type camera mounted on the front center of the helmet and capable of shooting even at low light levels; 총의 가늠자와 가늠쇠에 장착되며 기준위치에 대한 3차원 좌표값을 갖는 2개의 3차원센서와, 상기 3차원센서에서 측정된 위치정보 및 방향정보를 포켓PC의 메인콘트롤러로 전송하는 트랜스미터로 구성된 센서부와;Sensor consisting of two three-dimensional sensors mounted on the scale and the scale of the gun and having a three-dimensional coordinate value for the reference position, and a transmitter for transmitting the position information and direction information measured by the three-dimensional sensor to the main controller of the Pocket PC. Wealth; 외부의 팀원과 무선통신을 수행할 수 있도록 통신모듈을 내장하고 있으며, 상기 트랜스미터에서 전달된 위치정보 및 방향정보에 따라 소정의 연산과정을 수행한 후, 미세증폭형 카메라에서 전달된 영상과 센서부에서 전달된 위치정보를 내부모니터와 HMD에 표시하는 포켓PC와;Built-in communication module to perform wireless communication with external team members, and after performing a predetermined calculation process according to the position information and direction information transmitted from the transmitter, the image and sensor unit transmitted from the micro-amplification type camera Pocket PC for displaying the location information transmitted from the internal monitor and the HMD; 별도의 키패드 또는 명령버튼중 어느 하나 이상을 구비함으로써 상기 포켓PC를 외부에서 제어하는 입력장치와;An input device to externally control the Pocket PC by providing at least one of a separate keypad or command button; 헬멧에 장착되며, 상기 포켓PC에 내장된 통신모듈을 통해 팀원과 무선으로 대화를 소통하는 마이크 및 이어폰과;A microphone and earphone mounted on the helmet and communicating wirelessly with a team member through a communication module built in the pocket PC; 안경 또는 고글의 형태로 제작되어 사용자가 착용함으로써 상기 포켓PC의 제어에 의해 표적물(4)과 조준영상이 디스플레이되는 HMD로 구성되어 있는 것을 특징으로 하는 사이버 포인터 시스템.Cyber pointer system, characterized in that made of a form of glasses or goggles, the user is worn by the user HMD that displays the target (4) and the aimed image under the control of the Pocket PC. 제 1항에 있어서,The method of claim 1, 상기 포켓PC는 센서부 및 입력장치의 트랜스미터에서 무선으로 송출된 신호를 수신하는 리시버와;The Pocket PC includes a receiver for receiving a signal transmitted wirelessly from the transmitter of the sensor unit and the input device; 상기 미세증폭형카메라와 센서부 및 입력장치로부터 전달된 영상정보, 위치정보 및 제어정보를 통해 영상을 합성하여 HMD와 내부모니터에 디스플레이함과 사용자의 선택에 따라 저장장치에 기록된 지도데이타를 출력하는 메인콘트롤러와;Display the image on the HMD and the internal monitor by synthesizing the image through the image information, the position information and the control information transmitted from the micro-amplification type camera, the sensor unit, and the input device, and output the map data recorded in the storage device according to the user's selection A main controller; 데이타 버퍼링(buffering)과정을 통해 상기 메인콘트롤러에서의 데이타흐름을 조절하는 램과;RAM for controlling data flow in the main controller through a data buffering process; 전자화된 지도데이타를 저장하고 있으며 메인콘트롤러의 제어신호에 따라 선택된 구역의 지도데이타를 출력하는 저장장치와;A storage device which stores the electronic map data and outputs map data of the selected area according to a control signal of the main controller; 상기 메인콘트롤러가 구동되는 프로그램이 저장되어 있는 롬과;A ROM in which a program for driving the main controller is stored; 외부의 팀원과 무선으로 통화할 수 있도록 통신채널을 형성하는 통신모듈로 구성되어 있는 것을 특징으로 하는 사이버 포인터 시스템.Cyber pointer system, characterized in that consisting of a communication module for forming a communication channel to communicate with the outside team members wirelessly. 사이버 포인터 시스템을 구성하는 메인콘트롤러에 있어서,In the main controller constituting the cyber pointer system, 메인콘트롤러는 센서부를 구성하는 각각의 3차원센서에서 전달된 무선신호를 통해 현재 각 센서의 정확한 위치를 계산하는 위치계산부와, 상기 GPS수신기로부터 수신된 정보에 따라 사용자의 현재 위치에 대한 좌표를 계산하는 좌표계산부와, 상기 위치계산부 및 좌표계산부를 통해 계산된 위치 및 좌표를 영점조정된 기준위치와 비교하여 총의 조준점이 향하고 있는 정확한 방향을 계산하는 위치 및 좌표 보정부을 포함하는 위치계산수단과;The main controller calculates the exact position of each sensor based on a wireless signal transmitted from each 3D sensor constituting the sensor unit, and coordinates with respect to the current position of the user according to the information received from the GPS receiver. Position calculation means including a coordinate calculation unit for calculating, and a position and coordinate correction unit for comparing the position and coordinates calculated by the position calculation unit and the coordinate calculation unit with a zero-adjusted reference position to calculate the exact direction of the aiming point of the gun and; 상기 저장장치에 미리 기억되어 있는 지도데이타중에서 사용자의 선택에 따라 원하는 지역을 선택하는 지도 선택부와, 필요에 따라 다른 지역의 지도를 선택하는 지도변경부와, 최종적으로 선택된 지도를 사용자가 시각적으로 인식할 수 있도록 확대하는 지도확대부를 포함하는 지도표시수단과;A map selector for selecting a desired region from the map data previously stored in the storage device according to a user's selection, a map changer for selecting a map of another region as needed, and a user visually selects the finally selected map. Map display means including a map enlargement unit for enlarging the image to be recognized; 미세증폭형 카메라로부터 전달된 영상신호를 입력받는 영상신호입력부와, 상기 영상신호에서 노이즈를 제거하고 증폭한 후, 영상합성이 용이하도록 디지털신호로 변환시키는 일련의 신호처리과정을 수행하는 영상신호변환부를 포함하는 영상신호변환수단과;An image signal input unit for receiving an image signal transmitted from a micro-amplification type camera and an image signal conversion unit for performing a series of signal processing processes for removing noise from the image signal, amplifying the signal, and converting the image signal into a digital signal for easy image synthesis A video signal converting means comprising a portion; 상기 3차원센서에서 전달된 위치정보를 무선으로 입력받는 센서신호입력부와, 상기 위치정보를 디지털신호로 변환하는 센서신호변환부를 포함하는 센서신호변환수단과;Sensor signal converting means including a sensor signal input unit for wirelessly receiving the position information transmitted from the 3D sensor and a sensor signal converting unit converting the position information into a digital signal; 상기 영상신호 변환부와 센서신호변환부에서 입력된 영상을 합성하여 표적물에 대한 조준표시를 형성하는 조준영상합성부와, 위치 및 좌표보정부에서 전달된 제어신호와 지도확대부에서 전달된 지도데이타와 조준영상합성부에서 전달된 영상신호를 동시에 또는 선택적으로 출력할 수 있도록 신호제어를 수행하는 디스플레이 제어부와, 상기 디스플레이 제어부의 제어신호에 따라 HMD 및 내부모니터로 영상신호를 출력하는 영상출력부를 포함하는 영상합성 및 출력수단으로 구성되어 있는 것을 특징으로 하는 사이버 포인터 시스템.Aiming image synthesis unit for synthesizing the image input from the image signal conversion unit and the sensor signal conversion unit to form an aiming display for the target, the control signal transmitted from the position and coordinate correction and the map transmitted from the map expansion A display control unit which performs signal control to simultaneously or selectively output the image signal transmitted from the data and the aiming image synthesis unit; and an image output unit which outputs the image signal to the HMD and the internal monitor according to the control signal of the display control unit. Cyber pointer system comprising a video synthesis and output means comprising.
KR1020030025791A 2003-04-23 2003-04-23 Cyber pointer system and it's control process KR100562414B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030025791A KR100562414B1 (en) 2003-04-23 2003-04-23 Cyber pointer system and it's control process

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030025791A KR100562414B1 (en) 2003-04-23 2003-04-23 Cyber pointer system and it's control process

Publications (2)

Publication Number Publication Date
KR20040091992A true KR20040091992A (en) 2004-11-03
KR100562414B1 KR100562414B1 (en) 2006-03-17

Family

ID=37372523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030025791A KR100562414B1 (en) 2003-04-23 2003-04-23 Cyber pointer system and it's control process

Country Status (1)

Country Link
KR (1) KR100562414B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009082258A1 (en) * 2007-12-26 2009-07-02 Iouri Mikhaylovich Fink Optico-mechanical device for shooting weapon and shooting weapon comprising the optico-mechanical device
KR101414147B1 (en) * 2012-02-15 2014-07-01 (주)일렉콤 Virtual Reality Shooting Simulation System
KR101498610B1 (en) * 2013-12-03 2015-03-09 대한민국 The Tactical Simulation Training Tool by linking Trainee's movement with Virtual Character's movement, Interoperability Method and Trainee Monitoring Method
KR101650820B1 (en) * 2015-06-10 2016-08-24 (주)굿게이트 Display apparatus and method for controlling display using gyro sensor
KR20230081431A (en) * 2021-11-30 2023-06-07 주식회사 에이디디에스 Target aiming support system and method for commanding battle using it
US11965714B2 (en) 2007-02-28 2024-04-23 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11965714B2 (en) 2007-02-28 2024-04-23 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
WO2009082258A1 (en) * 2007-12-26 2009-07-02 Iouri Mikhaylovich Fink Optico-mechanical device for shooting weapon and shooting weapon comprising the optico-mechanical device
KR101414147B1 (en) * 2012-02-15 2014-07-01 (주)일렉콤 Virtual Reality Shooting Simulation System
KR101498610B1 (en) * 2013-12-03 2015-03-09 대한민국 The Tactical Simulation Training Tool by linking Trainee's movement with Virtual Character's movement, Interoperability Method and Trainee Monitoring Method
KR101650820B1 (en) * 2015-06-10 2016-08-24 (주)굿게이트 Display apparatus and method for controlling display using gyro sensor
KR20230081431A (en) * 2021-11-30 2023-06-07 주식회사 에이디디에스 Target aiming support system and method for commanding battle using it

Also Published As

Publication number Publication date
KR100562414B1 (en) 2006-03-17

Similar Documents

Publication Publication Date Title
US11965714B2 (en) System and method for video image registration and/or providing supplemental data in a heads up display
US11947387B2 (en) Headset computer that uses motion and voice commands to control information display and remote devices
US8817103B2 (en) System and method for video image registration in a heads up display
US6301050B1 (en) Image enhancement system for scaled viewing at night or under other vision impaired conditions
US9900517B2 (en) Infrared binocular system with dual diopter adjustment
US7786424B2 (en) Electronic day and night vision goggles having dual camera
US20130333266A1 (en) Augmented Sight and Sensing System
US11178344B2 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
US10425540B2 (en) Method and system for integrated optical systems
KR102125299B1 (en) System and method for battlefield situation recognition for combat vehicle
KR102048354B1 (en) Apparatus and method for displaying images in a wireless helmet
EP2544039A1 (en) Display system
US11785411B2 (en) Information processing apparatus, information processing method, and information processing system
KR100562414B1 (en) Cyber pointer system and it&#39;s control process
US8842202B2 (en) Mobile terminal, method for adjusting magnification of camera and program
WO2020129029A2 (en) A system for generating an extended reality environment
JP4708590B2 (en) Mixed reality system, head mounted display device, mixed reality realization method and program
JPWO2019064399A1 (en) Information processing system and object information acquisition method
JP7018443B2 (en) A method to assist in target localization and a viable observation device for this method
US8780179B2 (en) Robot vision with three dimensional thermal imaging
CN112581920A (en) Display system, display control method, and recording medium
JP2016219897A (en) Display device, control method for the same and program
JP2007221179A (en) Image display device and image display method
JP2011123152A (en) Telescope and telescope system
JPH0313880A (en) Sight direction detecting apparatus

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110221

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee