KR101840831B1 - 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템 - Google Patents

실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템 Download PDF

Info

Publication number
KR101840831B1
KR101840831B1 KR1020170109206A KR20170109206A KR101840831B1 KR 101840831 B1 KR101840831 B1 KR 101840831B1 KR 1020170109206 A KR1020170109206 A KR 1020170109206A KR 20170109206 A KR20170109206 A KR 20170109206A KR 101840831 B1 KR101840831 B1 KR 101840831B1
Authority
KR
South Korea
Prior art keywords
wearable object
control command
attitude information
real
state
Prior art date
Application number
KR1020170109206A
Other languages
English (en)
Inventor
최원석
조영기
이주원
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020170109206A priority Critical patent/KR101840831B1/ko
Application granted granted Critical
Publication of KR101840831B1 publication Critical patent/KR101840831B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 착용형 물체의 자세정보를 실시간으로 산출하고, 산출된 자세정보에 미리 매칭된 제어명령을 추출하여 전송함으로써 손을 쓰지 않고도 즉각적으로 주변 전자 장비들을 제어할 수 있는 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템 및 그 방법을 제안한다. 본 발명에 따른 실시간 자세정보기반 제어명령 생성장치는 적어도 둘 이상의 센서를 통해 착용형 물체에 대한 측정 데이터를 수집하고 각 센서의 측정 데이터를 융합 및 가공하여 상기 착용형 물체의 자세에 대한 상태변수를 구하는 센서 융합부와, 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 착용형 물체의 상태정보를 추정하는 필터부와, 착용형 물체의 상태정보에 기반하여 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부 및 자세정보에 미리 매칭된 제어신호를 검출하여 주변 전자장비로 전송할 제어명령을 생성하는 제어명령 생성부를 포함한다.

Description

실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템{Device for creating control command based on real time position information and system using thereof}
본 발명은 실시간 자세정보기반 제어명령 생성장치와 시스템에 관한 것으로서, 보다 상세하게는 착용형 물체의 자세정보를 실시간으로 산출하고, 산출된 자세정보에 미리 매칭된 제어명령을 추출하여 전송함으로써 손을 쓰지 않고도 즉각적으로 주변 전자 장비들을 제어할 수 있는 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템에 관한 것이다.
군사 상황시 병사들은 군화, 전투모와 같은 군대 복장과 무기를 갖춰 전투에 대비한다. 현대전이 갈수록 첨단화되어 감에 따라 무기에서 차지하는 전자 부품의 비중이 커지고 있으며 이에 따라 실전에서 병사가 제어해야 하는 무기들도 많아지고 있다.
미래 병사 체계에 대한 각국의 개발현황을 살펴보면, 미국은 전장에서 병사가 최상의 무기체계라는 인식하에 병사들의 전장상황 인식능력, 치명성, 생존성, 기동성, 지휘통제능력 및 경량화를 고려하여 전투능력을 향상시키고자 하는 SEP(Soldier Enhancement Plan)을 수립하고, 1989년 미 의회의 승인을 받아 SaaS(Soldier as a System: 시스템 개념의 병사체계) 개발을 추진했다. 우리나라도 국방과학연구소를 중심으로 2단계에 걸쳐서 미래병사체계를 개발할 예정이다.
구체적으로, 미래의 병사들은 군사 상황에 투입되어 드론과 로봇들을 함께 컨트롤하며 임무를 수행해야 할 것이다. 그러나 병사들은 총기 등과 같은 무기를 손에 쥐고 있거나, 다른 동력 장비들을 제어하기 위해 버튼 입력 행위 등에 이미 손이 할당되어 있기 때문에, 동시에 드론이나 로봇들을 제어하기가 쉽지 않을 것이다. 그렇다고 침묵을 유지하면서 진군해야 하는 상황 등에서는 드론과 로봇들에게 음성 언어로 명령을 내리는 것은 부적절하다.
따라서, 다양한 군사 상황에서 병사가 즉각적으로 복수의 무기들을 제어할 수 있는 기술이 필요하다.
한국등록특허 제10-1467003호는 한 벌의 의복에 구성된 다중 통합 레이저 교전 체계 장치를 구비하는 군사 훈련용 장치에 대하여 기술하고 있으나, 이 장치는 군사 상황에서 병사가 복수의 무기들을 제어하도록 타 기기에 대한 명령을 생성하는 기술에 대해서는 언급하고 있지 않다.
본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 착용형 물체의 자세정보를 실시간으로 산출하고, 산출된 자세정보에 미리 매칭된 제어명령을 추출하여 손을 쓰지 않고도 즉각적으로 주변 전자장비를 제어할 수 있는, 실시간 자세정보기반 제어명령 생성장치와 시스템을 제안함을 목적으로 한다.
이를 위해, 본 발명은 착용형 물체에 구비된 센서들로부터 수집된 측정 데이터들을 융합 및 가공하고, 필터를 적용하여 착용형 물체의 정확한 상태정보를 추정하며, 착용형 물체의 움직임에 따라 실시간으로 산출된 자세정보를 기반으로 주변 전자 장비를 제어하는 명령을 검출하여 전송하는, 실시간 자세정보기반 제어명령 생성장치와 시스템을 제안함을 목적으로 한다.
그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 적어도 둘 이상의 센서를 통해 착용형 물체에 대한 측정 데이터를 수집하고 각 센서의 측정 데이터를 융합 및 가공하여 상기 착용형 물체의 자세에 대한 상태변수를 구하는 센서 융합부와, 상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 착용형 물체의 상태정보를 추정하는 필터부와, 상기 착용형 물체의 상태정보에 기반하여 상기 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부 및 상기 자세정보에 미리 매칭된 제어신호를 검출하여 주변 전자장비로 전송할 제어명령을 생성하는 제어명령 생성부를 포함하는 실시간 자세정보기반 제어명령 생성장치를 제안한다.
바람직하게는, 필터부는, 상기 센서의 측정 데이터에서 잡음을 확률변수로 취급하고, 상기 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상기 상태변수를 구한다.
바람직하게는, 상기 센서 융합부는, 센서 융합을 위해 3축 가속도계 센서 1개로부터 상기 착용형 물체의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하고, 2축 자이로 센서 2개로부터 상기 착용형 물체의 각속도 값(p, q, r)을 수집하여, 상기 가속도값 및 상기 각속도값을 융합한다.
바람직하게는, 상기 센서 융합부는, 움직이는 착용형 물체의 각속도와 오일러 각 간의 관계식을 이용하여 상기 착용형 물체의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구한다.
바람직하게는, 상기 오일러 각의 변화율은 하기 [수학식 1]로 구하고
[수학식 1]
Figure 112017083486539-pat00001
여기서, (p, q, r)은 착용형 물체의 각속도계 값이고,
Figure 112017083486539-pat00002
는 오일러 각의 변화율이며, 상기 오일러 각의 변화율을 적분함으로써, 하기 [수학식 2]
Figure 112017083486539-pat00003
의 오일러 각으로 나타내는 상기 상태변수를 구한다.
바람직하게는, 상기 필터부는, 상기 상태변수에 확장 칼만 필터를 적용하여, 상기 착용형 물체의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 상기 착용형 물체의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득한다.
바람직하게는, 상기 필터부는, 상기 센서 측정값 중 상기 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 상기 필터를 적용하여 상기 착용형 물체의 상태정보를 추정하는 과정을 반복한다.
본 발명의 실시 예에 따른 실시간 자세정보기반 제어명령을 이용한 시스템은 제어명령을 생성하기 위한 복수의 자세정보를 숙지하고 있는 사용자가 착용한 착용형 물체와, 상기 착용형 물체에 구비되고, 상기 착용형 물체의 움직임에 따른 자세정보를 실시간 산출하여, 상기 자세정보에 미리 매칭된 제어신호를 검출하는 실시간 자세정보기반 제어명령 생성장치 및 상기 실시간 자세정보기반 제어명령 생성장치와 무선 연결을 통해 상기 제어신호를 수신하여 상기 수신된 제어신호에 따라 구동이 제어되는 주변 전자장비를 포함한다.
바람직하게는, 상기 실시간 자세정보기반 제어명령 생성장치는, 적어도 둘 이상의 센서로부터 수집된 역학적 데이터를 가공 및 융합하여 상기 착용형 물체의 자세에 대한 상태변수를 구하고, 상기 상태변수에 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 착용형 물체의 상태정보를 추정함으로써, 상기 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출한다.
본 발명은 사용자가 착용한 착용형 물체의 자세정보를 실시간으로 산출하고, 산출된 자세정보에 미리 매칭된 제어명령을 추출하여 즉각적으로 주변 전자 장비를 제어함으로써 한 명의 사용자가 손(hand)을 쓰지 않더라도 다른 신체부위의 자세변경만으로도 드론이나 로봇과 같은 다양한 주변 전자장비들을 제어할 수 있는 효과가 있다.
이를 위해 본 발명은 착용형 물체에 구비된 센서들로부터 수집된 측정 데이터들을 융합 및 가공하고, 비선형 역학계의 상태를 추정하는 필터를 적용하여 착용형 물체의 정확한 상태정보를 추정하며, 착용형 물체의 움직임에 따라 실시간으로 산출된 자세정보를 기반으로 주변 전자장비를 제어하는 명령을 검출하여 전송할 수 있다.
아울러, 본 발명은 FPGA(Field Programmable Gate Array) 기반의 SOC(System on chip) 설계와 MEMS(Micro Electro Mechanical System)을 적용하여 실시간 자세정보기반 제어명령 생성장치를 초소형, 경량으로 구비하여 착용형 물체에 쉽게 탑재할 수 있으며, 착용형 물체뿐만 아니라 다양한 분야에 적응적으로 활용할 수 있다.
더불어, 본 발명의 실시간 자세정보기반 제어명령 생성장치는 MEMS 타입의 센서가 IMU(Inertial Measurement Unit)처럼 높은 센서 데이터의 정밀도를 보이지 않지만, 확장 칼만 필터를 적용하여 센서를 이용한 자세측정의 정밀도를 높이면서, 비선형 시스템을 해결할 수 있다.
도 1은 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치를 이용한 군사상황에 이용하는 일예를 도시하는 도면이다.
도 2는 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치의 구성을 개략적으로 도시하는 블록도이다.
도 3은 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치 모듈의 일예를 도시한다.
도 4는 본 발명의 일실시예에 따른 착용형 물체로서의 전투모에 대해 설정된 기준 좌표축을 도시한다.
도 5는 본 발명의 일실시 예에 따른 실시간 자세정보기반 제어명령 생성 방법을 설명하기 위한 순서도이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.
이하 본 발명에 대하여 자세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치를 이용한 군사상황에 이용하는 일예를 도시하는 도면이고, 도 2는 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치의 구성을 개략적으로 도시하는 블록도이며, 도 3은 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치 모듈의 일예를 도시하고, 도 4는 본 발명의 일실시예에 따른 착용형 물체로서의 전투모에 대해 설정된 기준 좌표축을 도시한다.
도 1 및 도 2를 참조하면, 본 발명의 일실시예에 따른 실시간 자세정보기반 제어명령 생성장치(100)는 센서부(110), 센서 융합부(120), 필터부(130), 자세정보 산출부(140), 명령 생성부(150) 및 통신부(160)를 포함함여 구성된다.
실시간 자세정보기반 제어명령 생성장치(100)는 FPGA(Field Programmable Gate Array) 기반의 SOC(System on chip) 설계와 MEMS(Micro Electro Mechanical System) 기술을 적용하여 도 3에 도시된 바와 같이 초소형, 경량으로 구비될 수 있다. 실시간 자세정보기반 제어명령 생성장치(100)는 초소형, 경량 장치로 구비되기 때문에 모자, 의류, 신발 등과 같은 착용형 복장에 쉽게 탑재할 수 있다.
도 1은 군사 상황에서 병사가 착용하는 전투모(10)의 내부에 실시간 자세정보기반 제어명령 생성장치를 탑재한 예를 도시한다. 실시간 자세정보기반 제어명령 생성장치(100)와 드론(20) 및 로봇(30)와 같은 주변 전자장비들은 블루투스, 와이파이 다이렉트, 롱텀에벌루션(LTE) 등 중 적어도 하나의 통신기술을 통해 연결된다.
실시간 자세정보기반 제어명령 생성장치(100)가 탑재된 전투모(10)를 머리에 착용한 병사는 사전에 전투모의 자세정보에 매칭하는 제어명령들에 대해 숙지해둔다.
그리고 실시간 자세정보기반 제어명령 생성장치(100)가 탑재된 전투모(10)를 머리에 착용한 상태에서 머리를 움직여서 전투모(10)의 자세를 변경시킴에 따라 주변 전자장비들(20, 30)의 동작을 제어하는 기능을 실행시킨다.
예를 들어, 드론(20) 구동을 제어할 경우, 병사가 실시간 자세정보기반 제어명령 생성장치(100)가 탑재된 전투모(10)를 착용한 상태에서 머리를 시계방향으로 한 바퀴 돌리는 자세를 취하면, 실시간 자세정보기반 제어명령 생성장치(100)는 이 자세를 인식하고, 드론(20)에 전송할 명령을 생성할 준비를 한다. 이후 병사가 머리를 왼쪽으로 젖히면, 실시간 자세정보기반 제어명령 생성장치(100)가 드론(20)에 왼쪽으로 비행할 것을 명령하는 신호를 전송하고, 머리를 오른쪽으로 젖히면, 드론(20)에 오른쪽으로 비행할 것을 명령하는 신호를 전송하며, 머리를 뒤로 젖힐 경우 드론(20)에 정지할 것을 명령하는 신호를 전송하고, 머리를 앞으로 숙일 경우 드론(20)에 전진할 것을 명령하는 신호를 전송하며, 머리를 미리 설정된 소정시간 이내에 좌우로 흔들 경우, 드론(20)에 미사일을 격발할 것을 명령하는 신호를 전송할 수 있다.
이하 실시간 자세정보기반 제어명령 생성장치의 각 구성의 역할에 대해 상세히 설명하기로 한다.
도 2를 참조하면, 센서부(110)는 적어도 둘 이상의 센서를 통해 착용형 물체(10)에 대한 측정 데이터를 수집한다. 참고로, 착용형 물체는 사람이 신체에 착용할 수 있는 모자, 신발, 의류, 가방 등을 일컬으며, 본 발명의 실시 예에서는 군사상황에서 착용하는 전투모를 예로 들었으나 이에 한정하지 않는다.
구체적으로 센서부(110)는 제1 센서부(111) 및 제2 센서부(113)로 구성되고, 제1 센서부(111)는 3축 가속도계 센서 1개로 구성되어 착용형 물체(10)의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하며, 제2 센서부(113)는 2축 자이로 센서 2개로부터 착용형 물체(10)의 각속도 값(p, q, r)을 수집한다.
센서 융합부(120)는 각 센서부(111, 113)의 측정 데이터를 융합 및 가공하여 착용형 물체(10)의 자세에 대한 상태변수를 구한다.
구체적으로, 센서 융합부(120)는 움직이는 착용형 물체(10)의 각속도와 오일러 각 간의 관계식을 이용하여 착용형 물체(10)의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구한다.
착용형 물체(10)가 전투모인 경우, 전투모의 좌표축은 도 4에 도시된 바와 같으며, 전투모의 상태변수를 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성함을 알 수 있다.
여기서 센서 융합부(120)는 개별 센서 각각의 단점들을 보완하여 정확한 동적 자세 정보를 출력하기 위해 일련의 디지털 필터링 알고리즘을 이용한다. 즉, 센서 융합의 목적은 각 센서의 측정 데이터를 입력으로 하고 디지털 필터링을 적용하여 서로의 값을 보완한 뒤 정확하고 유용한 동적 자세 결과값을 출력하는 것이다.
센서 융합부(120)는 상기 오일러 각의 변화율을 하기 [수학식 1]로 구한다.
[수학식 1]
Figure 112017083486539-pat00004
여기서, (p, q, r)은 착용형 물체의 각속도계 값이고,
Figure 112017083486539-pat00005
는 오일러 각의 변화율이다.
그리고, 상기 오일러 각의 변화율을 적분함으로써, 하기 [수학식 2]의 오일러 각으로 나타내는 상기 상태변수(Φt, θt, Ψt)를 구한다.
[수학식 2]
Figure 112017083486539-pat00006
필터부(130)는 상기 상태변수(Φt, θt, Ψt)에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 착용형 물체의 상태정보를 추정한다. 이를 위해, 필터부(130)는 센서부(110)로부터 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상태변수를 구한다.
구체적으로, 필터부(130)는 상기 상태변수(Φt, θt, Ψt)에 확장 칼만 필터를 적용한다. 이를 통해 착용형 물체(10)의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 착용형 물체(10)의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득한다.
필터부(130)는 센서 측정값 중 상기 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 상기 확장 칼만 필터를 적용하여 착용형 물체(10)의 상태정보를 추정하는 과정을 반복한다.
여기서, 확장 칼만 필터에 대해 상세히 설명하자면 다음과 같다.
확장 칼만 필터는 다음 수학식 3과 같은 상태변화모델과 측정모델을 갖는다.
[수학식 3]
Figure 112017083486539-pat00007
여기서 Xt는 마르코프 프로세스(Markov Process)를 따르는 상태 벡터이고,
Figure 112017083486539-pat00008
Figure 112017083486539-pat00009
는 평균이 0이고, 분산이 각각
Figure 112017083486539-pat00010
,
Figure 112017083486539-pat00011
인 독립 가우시안 백색 잡음이다. 마르코프 프로세스는 상태벡터가 결정될 확률이 과거의 다른 상태 벡터들과 무관하고 그 직전의 결과인 Xt -1에 따라 결정된다는 가정이다. 다음은 수학식 4는 상기 상태방정식에 대한 확장 칼만 필터 알고리듬이다.
[수학식 4]
Figure 112017083486539-pat00012
여기서,
Figure 112017083486539-pat00013
.는 평균값,
Figure 112017083486539-pat00014
는 분산값,
Figure 112017083486539-pat00015
는 제어값,
Figure 112017083486539-pat00016
는 측정값,
Figure 112017083486539-pat00017
는 칼만 게인, 확장 칼만 필터는 t-1 순간까지의 관측값에 근거하여 X(t|t-1)을 추정하며 알고리즘은 반복형으로 표현된다.
Figure 112017083486539-pat00018
는 시스템에 대한 노이즈의 공분산 값이고
Figure 112017083486539-pat00019
는 센서 측정 값에 대한 노이즈의 공분산 값이다.
(10-1), (10-2)번 식은 예측하는 부분이고 (10-3)번 식은 칼만 이득(Kalman Gain)을 나타낸다. (10-4), (10-5)번 식은 측정한 값을 업데이트 하는 부분이다. 확장 칼만 필터를 비선형 시스템에 적용할 수 있는 이유는 바로 테일러 시리즈와 자코비안을 확장 칼만 필터에 적용하였기 때문이다. 테일러 시리즈는 비선형 시스템을 선형화시켜주며 자코비안은 복잡하게 얽혀 있는 식을 미분을 이용하여 선형 근사화시켜 간단한 근사 선형식을 만들어 준다. 확장 칼만 필터는 비선형 시스템에 적용할 수 있으므로 쿼터니언 좌표계를 사용할 필요 없이 오일러 각을 이용한다.
한편, 병사의 전투 임무환경에서 Z축 방향에 대한 회전 Ψ(프사이)는 전투 전방 주시에 문제가 생길 수 있으므로 칼만 필터 적용 시 Ψ(프사이)는 실시간으로 획득하지 않을 수 있다. 이와 같이 본 발명의 실시간 자세정보기반 명령생성장치는 이가 적용되는 특수 상황이나 환경에 따라 센서를 통해 획득하는 정보를 가공하거나 선택적으로 이용할 수 있으며, 이는 프로그램 설계시 제작자의 임의로 또는 사용자의 설정에 따라 변경될 수 있다.
그러므로 전투모의 자세 정보 획득을 위한 상태변수 x는 X축 방향에 대한 회전 각?處?(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이)으로 구성이 된다.
상술한 첫 번째 식 (10-1)에 각속도와 오일러각의 관계식을 적용할 수 있으나 비선형식이고, 확장 칼만 필터의 예측하는 첫 번째 식 (10-1)은 제어하는 부분은 없으므로 ut는 삭제하고 다음 수학식 5와 같이 나타낼 수 있다.
[수학식 5]
??
Figure 112017083486539-pat00020
위 식을 전투모의 자세를 나타내는 오일러 각으로 풀 수 있다.
여기서 우리는 전투모의 ?處纜瓜曄? 각도만을 고려하기 때문에 ψ는 사용하지 않는다. Φ와?曄? 각도는??
Figure 112017083486539-pat00021
를 적분함으로서 구할 수 있고, 이 식을 적분하면 전투모 위치 정보를 나타내는 상태모델(state model)이 된다.
전투모의 자세정보 상태모델은 상술한 수학식 1과 같고, 수학식 1을 적분한 식은 상술한 수학식 2와 같다. 수학식 1과 수학식 2에서 다음 수학식 5가
Figure 112017083486539-pat00022
통용된다. 여기서, dt는 미소시간을 나타낸다.
전투모의 자세정보 측정모델은 다음 수학식 6과 같다.
[수학식 6]
Figure 112017083486539-pat00023
수학식 6은 선형이므로 자코비안을 사용할 필요없이 다음 수학식 7과 같은 측정모델로 사용할 수 있다.
[수학식 7]
Figure 112017083486539-pat00024
그리고, 측정모델 H는 다음 수학식 8과 같이 구해진다.
[수학식 8]
Figure 112017083486539-pat00025
미분을 통하여 시스템을 선형 근사화시키기 위해서 자코비안을 이용하는데 자코비안은 수학식 9와 같이 구할 수 있다.
[수학식 9]
Figure 112017083486539-pat00026
이렇게 구한 자코비안을 이용하여 확장 칼만 필터의 예측단계 아래 두 번째 식인 (10-2)식을 사용하여 예측 공분산값 ??
Figure 112017083486539-pat00027
을 구한다.
칼만 이득인 Kt는 (10-3)식을 사용하여 추정값으로서 측정모델을 계산하고 예측 공분산과 칼만 이득을 이용하여 센서 측정 노이즈의 공분산 값을 구한다.
센서 측정값을 업데이트 하는 (10-4), (10-5)번식은 3축 가속도계에 획득한 데이터 Φ와?曄甕? 입력한다. Rt는 시험을 통해서 0.005를 선정했으며, Qt는 자이로스코프 데이터 시트에 명시된 노이즈 값을 참조하여 0.007569값을 적용하였다. Rt에 따라서 시스템이 달라지는데 Rt값이 클수록 예측값의 반영 비율이 높아지고 변화가 완만해진다. 또한 측정값의 영향을 덜 받게 되고 칼만 이득은 작아지게 된다. 확장 칼만 필터 알고리듬은 START에서 시작하여 최종적으로 ??
Figure 112017083486539-pat00028
을 구한 뒤 다시 이 값을
Figure 112017083486539-pat00029
값으로 입력하여 반복적으로 수행한다. 또한 수행하는 과정에서 최신화된 센서값 자이로와 가속도계 값을 업데이트하는 것을 확인할 수 있으며 자코비안 값도 계속해서 업데이트를 수행한다.
자세정보 산출부(140)는 착용형 물체(10)의 상태정보에 기반하여 상기 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출한다. 예를 들면, 전투모(10)의 자세가 병사 머리의 움직임에 따라 초기 자세를 기준으로 좌, 우, 전, 후 중 하나로 젖혀졌는지 좌우 또는 전후로 흔들렸는지에 관한 자세정보를 산출한다.
명령 생성부(150)는 자세정보 산출부(140)에서 산출된 자세정보에 미리 매칭된 제어명령을 메모리로부터 검출하여, 주변 전자장비에 전송할 제어명령을 생성한다. 이를 위해, 실시간 자세정보기반 제어명령 생성장치(100)는 미리 설정된 전투모(10)의 자세정보마다 주변 전자장비를 제어하기 위한 명령신호를 매칭하여 저장하는 메모리(미도시)를 구비한다.
통신부(160)는 명령 생성부(150)에서 생성된 명령신호를 해당 주변 전자장비로 전송한다. 상기한 바와 같이 통신부(160)는 블루투스, 와이파이 다이렉트, 롱텀에벌루션(LTE) 등 중 적어도 하나의 통신기술을 이용하여 실시간 자세정보기반 명령생성장치(100)와 주변 전자장비를 연결한다.
도 5는 본 발명의 일실시 예에 따른 실시간 자세정보기반 제어명령 생성 방법을 설명하기 위한 순서도이다.
이하, 도 2 및 도 5를 참조하여 본 발명의 일실시 예에 따른 실시간 자세정보기반 제어명령 생성방법을 설명하기로 하고, 앞서 상술한 실시간 자세정보기반 제어명령 생성장치 및 시스템에서 개시한 동일한 구성에 대한 상세한 설명은 중복되므로 생략하기로 한다.
먼저, 센서부(110)가 적어도 둘 이상의 센서를 통해 착용형 물체에 대한 측정 데이터를 수집한다(S510).
구체적으로 센서부(110)는 제1 센서부(111) 및 제2 센서부(113)로 구성되고, 제1 센서부(111)는 3축 가속도계 센서 1개로 구성되어 착용형 물체(10)의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하며, 제2 센서부(113)는 2축 자이로 센서 2개로부터 착용형 물체(10)의 각속도 값(p, q, r)을 수집한다.
다음으로, 센서 융합부(120)가 각 센서의 측정 데이터를 융합 및 가공하여 상기 착용형 물체의 자세에 대한 상태변수를 구한다(S520).
구체적으로, 센서 융합부(120)는 움직이는 착용형 물체(10)의 각속도와 오일러 각 간의 관계식을 이용하여 착용형 물체(10)의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구한다. 착용형 물체(10)가 전투모인 경우, 전투모의 좌표축은 도 4에 도시된 바와 같으며, 전투모의 상태변수를 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성함을 알 수 있다.
여기서 센서 융합부(120)는 개별 센서 각각의 단점들을 보완하여 정확한 동적 자세 정보를 출력하기 위해 일련의 디지털 필터링 알고리즘을 이용한다. 즉, 센서 융합의 목적은 각 센서의 측정 데이터를 입력으로 하고 디지털 필터링을 적용하여 서로의 값을 보완한 뒤 정확하고 유용한 동적 자세 결과값을 출력하는 것이다.
센서 융합부(120)는 상기 오일러 각의 변화율을 상술한 [수학식 1]로 구하고, 상기 오일러 각의 변화율을 적분함으로써, 상술한 [수학식 2]의 오일러 각으로 나타내는 상기 상태변수(Φt, θt, Ψt)를 구한다.
다음으로, 필터부(130)가 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 착용형 물체의 상태정보를 추정한다(S530).
이를 위해, 필터부(130)는 센서부(110)로부터 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상태변수를 구한다.
구체적으로, 필터부(130)는 상기 상태변수(Φt, θt, Ψt)에 확장 칼만 필터를 적용한다. 이를 통해 착용형 물체(10)의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 착용형 물체(10)의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득한다.
필터부(130)는 센서 측정값 중 상기 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 상기 확장 칼만 필터를 적용하여 착용형 물체(10)의 상태정보를 추정하는 과정을 반복한다.
다음으로, 자세정보 산출부(140)가 상태정보에 기반하여 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출한다(S540). 예를 들면, 전투모(10)의 자세가 병사 머리의 움직임에 따라 초기 자세를 기준으로 좌, 우, 전, 후 중 하나로 젖혀졌는지 좌우 또는 전후로 흔들렸는지에 관한 자세정보를 산출한다.
명령 생성부(150)가 자세정보에 미리 매칭되어 저장된 제어신호를 검출하여(S550), 통신부(160)가 검출된 제어명령을 주변 전자장비로 전송한다(S560). 이를 위해, 실시간 자세정보기반 제어명령 생성장치(100)는 미리 설정된 전투모(10)의 자세정보마다 주변 전자장비를 제어하기 위한 명령신호를 매칭하여 저장하는 메모리(미도시)를 구비한다. 통신부(160)는 블루투스, 와이파이 다이렉트, 롱텀에벌루션(LTE) 등 중 적어도 하나의 통신기술을 이용하여 실시간 자세정보기반 명령생성장치(100)와 주변 전자장비를 연결한다.
상술한 바와 같이 본 발명의 실시 예에 따르면, 사용자가 착용한 착용형 물체의 자세정보를 실시간으로 산출하고, 산출된 자세정보에 미리 매칭된 제어명령을 추출하여 즉각적으로 주변 전자 장비를 제어함으로써 한 명의 사용자가 손(hand)을 쓰지 않더라도 다른 신체부위의 자세변경만으로도 드론이나 로봇과 같은 다양한 주변 전자장비들을 제어할 수 있는 효과가 있다.
이를 위해 본 발명은 착용형 물체에 구비된 센서들로부터 수집된 측정 데이터들을 융합 및 가공하고, 비선형 역학계의 상태를 추정하는 필터를 적용하여 착용형 물체의 정확한 상태정보를 추정하며, 착용형 물체의 움직임에 따라 실시간으로 산출된 자세정보를 기반으로 주변 전자장비를 제어하는 명령을 검출하여 전송할 수 있다.
아울러, 본 발명은 FPGA(Field Programmable Gate Array) 기반의 SOC(System on chip) 설계와 MEMS(Micro Electro Mechanical System)을 적용하여 실시간 자세정보기반 제어명령 생성장치를 초소형, 경량으로 구비하여 착용형 물체에 쉽게 탑재할 수 있으며, 착용형 물체뿐만 아니라 다양한 분야에 적응적으로 활용할 수 있다.
더불어, 본 발명의 실시간 자세정보기반 제어명령 생성장치는 MEMS 타입의 센서가 IMU(Inertial Measurement Unit)처럼 높은 센서 데이터의 정밀도를 보이지 않지만, 확장 칼만 필터를 적용하여 센서를 이용한 자세측정의 정밀도를 높이면서, 비선형 시스템을 해결할 수 있다.
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.
또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (9)

  1. 적어도 둘 이상의 센서를 통해 착용형 물체에 대한 측정 데이터를 수집하고 각 센서의 측정 데이터를 융합 및 가공하여 상기 착용형 물체의 자세에 대한 상태변수를 구하는 센서 융합부;
    상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 착용형 물체의 상태정보를 추정하는 필터부;
    상기 착용형 물체의 상태정보에 기반하여 상기 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부; 및
    상기 자세정보에 미리 매칭된 제어신호를 검출하여 주변 전자장비로 전송할 제어명령을 생성하는 제어명령 생성부;를 포함하고,
    상기 필터부는,
    상기 센서의 측정 데이터에서 잡음을 확률변수로 취급하고, 상기 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상기 상태변수를 구하는 것을 특징으로 하는 실시간 자세정보기반 제어명령 생성장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 센서 융합부는,
    센서 융합을 위해 3축 가속도계 센서 1개로부터 상기 착용형 물체의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하고, 2축 자이로 센서 2개로부터 상기 착용형 물체의 각속도 값(p, q, r)을 수집하여, 상기 가속도값 및 상기 각속도값을 융합하는 것을 특징으로 하는 실시간 자세정보기반 제어명령 생성장치.
  4. 제 3 항에 있어서,
    상기 센서 융합부는,
    움직이는 착용형 물체의 각속도와 오일러 각 간의 관계식을 이용하여 상기 착용형 물체의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구하는 것을 특징으로 하는 실시간 자세정보기반 제어명령 생성장치.
  5. 제 4 항에 있어서,
    상기 오일러 각의 변화율은 하기 [수학식 1]로 구하고
    [수학식 1]
    Figure 112017083486539-pat00030

    여기서, (p, q, r)은 착용형 물체의 각속도계 값이고,
    Figure 112017083486539-pat00031
    는 오일러 각의 변화율이며, 상기 오일러 각의 변화율을 적분함으로써,
    [수학식 2]
    Figure 112017083486539-pat00032
    의 오일러 각으로 나타내는 상기 상태변수를 구하는 것을 특징으로 하는 실시간 자세정보기반 제어명령 생성장치.
  6. 제 1 항에 있어서,
    상기 필터부는,
    상기 상태변수에 확장 칼만 필터를 적용하여, 상기 착용형 물체의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 상기 착용형 물체의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득하는 것을 특징으로 하는 실시간 자세정보기반 제어명령 생성장치.
  7. 제 6 항에 있어서,
    상기 필터부는,
    상기 센서 측정값 중 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 상기 필터를 적용하여 상기 착용형 물체의 상태정보를 추정하는 과정을 반복하는 것을 특징으로 하는 실시간 자세정보기반 제어명령 생성장치.
  8. 제어명령을 생성하기 위한 복수의 자세정보를 숙지하고 있는 사용자가 착용한 착용형 물체;
    상기 착용형 물체에 구비되고, 상기 착용형 물체의 움직임에 따른 자세정보를 실시간 산출하여, 상기 자세정보에 미리 매칭된 제어신호를 검출하는 실시간 자세정보기반 제어명령 생성장치; 및
    상기 실시간 자세정보기반 제어명령 생성장치와 무선 연결을 통해 상기 제어신호를 수신하여 상기 수신된 제어신호에 따라 구동이 제어되는 주변 전자장비;를 포함하고,
    상기 실시간 자세정보기반 제어명령 생성장치는,
    적어도 둘 이상의 센서로부터 수집된 역학적 데이터를 가공 및 융합하여 상기 착용형 물체의 자세에 대한 상태변수를 구하고, 상기 상태변수에 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 착용형 물체의 상태정보를 추정함으로써, 상기 착용형 물체의 움직임에 따른 자세정보를 실시간으로 산출하는 것을 특징으로 하는, 실시간 자세정보기반 제어명령을 이용한 시스템.
  9. 삭제
KR1020170109206A 2017-08-29 2017-08-29 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템 KR101840831B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170109206A KR101840831B1 (ko) 2017-08-29 2017-08-29 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170109206A KR101840831B1 (ko) 2017-08-29 2017-08-29 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템

Publications (1)

Publication Number Publication Date
KR101840831B1 true KR101840831B1 (ko) 2018-03-21

Family

ID=61900620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170109206A KR101840831B1 (ko) 2017-08-29 2017-08-29 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템

Country Status (1)

Country Link
KR (1) KR101840831B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스

Similar Documents

Publication Publication Date Title
US9939888B2 (en) Correlating movement information received from different sources
US10114127B2 (en) Augmented reality visualization system
US8229163B2 (en) 4D GIS based virtual reality for moving target prediction
Marins et al. An extended Kalman filter for quaternion-based orientation estimation using MARG sensors
Waldmann Line-of-sight rate estimation and linearizing control of an imaging seeker in a tactical missile guided by proportional navigation
US7239976B2 (en) Method and system for automatic pointing stabilization and aiming control device
Hérissé et al. A terrain-following control approach for a vtol unmanned aerial vehicle using average optical flow
Rabik et al. Tracking and locking system for shooter with sensory noise cancellation
KR102006463B1 (ko) 비동기 필터를 이용한 시선각 속도 추정장치
Mercado-Ravell et al. Visual detection and tracking with UAVs, following a mobile object
KR101840830B1 (ko) 착용자세기반 실시간 외부 전자기기 제어방법
Wang et al. Adaptive optimization online IMU self-calibration method for visual-inertial navigation systems
Abeywardena et al. Visual-inertial fusion for quadrotor micro air vehicles with improved scale observability
CN112773034A (zh) 与智能头盔相关的装置和系统
KR102456872B1 (ko) 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법
KR101840831B1 (ko) 실시간 자세정보기반 제어명령 생성장치와 이를 이용한 시스템
Evren et al. High precision stabilization of pan-tilt systems using reliable angular acceleration feedback from a master-slave Kalman filter
CN108051001B (zh) 一种机器人移动控制方法、系统及惯性传感控制装置
Khamis Advanced tracking strategies for linear and nonlinear control systems: Theory and applications
KR102006464B1 (ko) 비동기 필터를 이용한 시선각 속도 추정방법
Epstein et al. Biologically inspired feedback design for Drosophila flight
Espinosa et al. Sliding mode line-of-sight stabilization of a two-axes gimbal system
CN115096134B (zh) 一种人机协同智能瞄准指向系统及瞄准指向方法
Gaur et al. Low cost solution for pose estimation of quadrotor
US20240263920A1 (en) Target acquisition system for an unmanned air vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant