KR20190095849A - 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법 - Google Patents
복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법 Download PDFInfo
- Publication number
- KR20190095849A KR20190095849A KR1020180015344A KR20180015344A KR20190095849A KR 20190095849 A KR20190095849 A KR 20190095849A KR 1020180015344 A KR1020180015344 A KR 1020180015344A KR 20180015344 A KR20180015344 A KR 20180015344A KR 20190095849 A KR20190095849 A KR 20190095849A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- virtual
- control system
- real
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 16
- 230000033001 locomotion Effects 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 38
- 230000010365 information processing Effects 0.000 claims description 27
- 239000002131 composite material Substances 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 230000008520 organization Effects 0.000 claims 1
- 230000008447 perception Effects 0.000 claims 1
- 238000012423 maintenance Methods 0.000 abstract description 38
- 238000012549 training Methods 0.000 abstract description 30
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Economics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
서로 물리적으로 떨어진 지역에서 다수의 사용자가 적어도 하나의 실체 또는 가상의 시스템 또는 장비에 대하여 동시에 제어, 학습, 훈련하는 방법 및 그 장치로써 실제 정비나 훈련해야 하는 원격지에서 가상 또는 실제 장비를 사용하여 시범을 보이는 본원에서의 적어도 한 명의 사용자에 의하여 제어 및 정비되는 등의 상황을 적어도 하나의 원격지의 적어도 한 명의 훈련 및 학습자가 본원에서 일어나는 가상 또는 실제 장비에 대한 시범 제어나 정비를 관찰할 수 있게 한다. 또한 하나의 가상 시스템 또는 장비에 대하여 여러 지역에 있는 여러 명의 사용자가 가상의 공간에서 동시에 상호 인식하며 동시에 가상 시스템을 원격 융합 시스템을 제공한다.
Description
본 발명은 서로 다른 지역에 위치하는 적어도 두 개의 서로 다른 장소에서 가상 또는 실제 장비나 시스템에 대하여 원격 제어하는 시스템에 관한 것이다. 선택적으로 어느 하나의 장소에서 대상 시스템이나 장비에 대하여 제어 또는 물리적인 특성을 변화시키는 것에 의하여 서로 다른 원격지에서 해당 상황을 실시간으로 인식하는 시스템의 구성과 그 방법에 대한 것이다.
선택된 특정 장소에서의 특정 사용자에 의하여 실제 장비나 시스템에 대한 조치나 특성의 변화, 제어를 하게 되는 경우 다른 지역의 사용자들은 가상현실 및 복합현실 장치를 사용하여 실시간으로 상황을 공유하게 되는 시스템에 관한 것이다.
일반적인 원격제어 시스템은 설정된 장비나 시스템에 대하여 작업자와 시스템이 일대일로 대응되어 원격지에서의 제어가 다른 원격지에서 조작이 일어나는 것을 의미한다. 즉 시각적으로 상호 보이지 않는 서로 다른 장소에서 시스템이나 장비를 제어하고 피드백을 받는 기술 시스템을 가지고 있다. 고속 유무선 통신과 고화질의 영상장치를 통해서 실시간으로 원격지의 상황을 볼 수 있는 환경들이 구축되고 있다. 스마트폰으로 외부에서 집안의 상황을 보거나 전자제품을 제어하고 상태를 알 수 있게 되었다. 또한 건설현장의 경우에는 사무실 내에서 외부의 공사현장의 장비들의 작업 진행상태를 모니터링 하면서 장비를 제어하며, 전체적인 공정을 고려한 장비간의 효율적 운영도 구현이 되고 있다. 복잡한 기계의 조립, 유지보수에 필요한 정보를 Head-mounted display(이하 HMD라 한다)를 착용한 사용자가 실제 장비를 보면서 작업에 필요한 정보를 즉시 획득하여 각 작업의 진행과정에서 필요한 정보를 얻을 수 있다. 이를 통해 교육 시간 및 인력의 효율적 활용으로 생산성 향상을 이루는 사례들이 나타나고 있다. 실질적으로 항공기 전선 조립, 자동차 부품 조립 등 제조 분야에서 부분적으로 활용이 되고 있으며 자동차 제조업에서는 차량 문 조립, 부품교체 등 공정에 적용한 기술을 개발 완료하여 적용하기도 한다.
그러나 익숙하지 않는 새로운 형태의 복잡한 구조의 시스템이나 장비는 단순히 분해 조립도나 영상자료를 통해서 피 훈련자가 적정 수준의 훈련이 되는 데는 한계가 많이 따른다. 문자나 설명, 애니메이션과 같은 형태로 스킬(skill)이 용이하게 전달되기 어려운 점이 있다.
예시적으로 자동차 회사에서 신차를 출시 후 여러 국가에 판매하면서 신차에 대한 각 국가의 정비 담당자들을 모집하거나 기존의 정비사들을 추가적으로 교육이나 훈련할 필요가 생긴다. 이 때, 모든 국가의 정비 담당자들이 자동차 개발 지역까지 직접 와서 교육이나 훈련을 받을 수 없다. 대부분 전파 교육을 통해서 이루어진다. 정비에 대한 매뉴얼이나 과정 및 단계도 수준별 상황에 따라 다양한 방법으로 정비 교육과 훈련이 이루어질 수 있다. 본사가 위치한 지역에서 정비 교육 및 훈련을 진행한다. 원격지에는 출시된 차량의 실제 신형 엔진에 대하여 본사 정비 담당자가 실제 정비 행위를 하는 것을 구비된 다양한 각도의 카메라를 통해서 다른 지역의 정비 담당자들이 정비 담당자의 시각을 포함하여 정비실습을 관찰할 수 있다. 통상적으로 이러한 시스템의 구성과 방법은 용이하게 구현이 될 수 있다. 그러나 수동적으로 관찰을 하고 실제적인 학습의 반복이나 훈련은 시간적인 간격을 두고 관찰한 기억이나 보조 모니터, 시각장치 등을 통해 참조 영상물을 보면서 훈련을 하게 된다. 본사의 정비 담당자에게 본인의 학습 상태나 훈련 수준에 대한 실시간 피드백이나 훈련 중 교정이나 상태의 질의를 실시간으로 이루어지기 어렵다. 또한 본사에서 다른 지역에서 정비 훈련을 받는 학습자에게 실시간으로 적절한 가이드를 통한 단계별 지도를 하기에 용이하지 않다. 또한 새로운 지역의 정비사들을 훈련하고자 할 때에 실제 장비를 분해조립하고 시험하는 반복을 보여주는 것도 시간과 비용 등이 많이 발생하게 된다.
본 발명은 상기한 다양한 종래 기술의 한계상황을 해결하는 것이다. 적어도 상호 시야로 확인이 되지 않는 떨어진 장소에서 발생하는 상대방의 행동과 그에 연계되거나 종속되는 시스템이나 장비의 상태 변화를 적어도 하나의 가상공간에서 인지하게 하는 시스템을 제공한다. 이를 통해 상대방의 행동이나 그에 따른 장비나 시스템의 상태변화의 적절성을 파악하고 공유할 수 있게 된다.
익숙하지 않은 새로운 시스템이나 장비의 분해 조립 및 시운전 등에 있어서 학습자나 지식이나 숙련도를 높여야 하는 적어도 하나의 상대방에게 가이드와 실시간 피드백을 주는 방법을 제공하고자 한다.
또한 하나의 가상공간에 대하여 다수의 인원이 서로 다른 지역에서 참여하여 동일한 시스템이나 장비에 대하여 상대적인 위치에서 학습이나 훈련을 할 수 있는 시스템과 그 방법을 제공하여 하나의 장비나 시스템을 동시에 다수의 사용자가 참여하여 장비나 시스템을 운영할 수 있게 한다. 공간적으로 서로 다른 지역의 사용자들 또는 동일 지역에서 하나의 장비나 시스템에 대하여 상호 제어하고 이를 공유하는 가상 훈련 공간을 제공하여 복잡하거나 다수가 참여하여 운영하는 시스템에 대한 훈련을 가능하게 하고자 한다.
또한 동일한 가상공간에서 동일한 시스템이나 장비에 대하여 상호 역할을 변경하여 상호 학습이나 훈련을 가능하게 하여 교차훈련이나 학습을 할 수 있게 한다.
그러나, 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위나 그 효과가 한정되는 것은 아니다.
상술한 본 발명의 목적들 중 적어도 하나를 달성하기 위하여 본 발명에 따른 복합현실 장치를 이용한 동시 다지역 원격지 교차제어 시스템은
영상입력장치 또는 센서에서 입력되는 사용자의 모습 또는 사용자를 대체하는 3차원 형상을 가지는 가상 인간 모델과
상기 가상 인간 모델 또는 사용자의 조작이나 움직임에 따라 특성(Parameter)의 값(value)이 변화되는 적어도 하나 이상의 모듈로 구성되는 3차원 형상정보를 갖는 가상객체와
상기 가상 인간 모델 또는 사용자의 조작이나 움직임에 의하여 변화되는 특성 값을 생성하거나 감지하는 적어도 하나의 정보입력장치와
상기 가상 인간 모델 또는 사용자의 움직임이나 조작에 연계되어 상기 가상객체 또는 실제객체에 대하여 변화된 특성 값을 계산하여 연동시키는 정보처리장치와
상기 정보처리장치에 의하여 계산된 정보를 사용자에게 인식하게 하는 정보출력장치와
상기 정보처리장치 또는 상기 정보입력장치의 정보를 외부로 송수신하는 데이터 송수신장치와
적어도 하나 이상의 다른 지역의 송수신장치로부터의 하나 이상의 데이터의 처리를 처리하는 다중 채널 방식의 네트워크 기반의 서버를 구비한다.
상기한 기본적인 시스템의 구성에 있어서 하기의 구성을 추가 또는 선택적으로 구비함으로써 본 발명의 목적 또는 과제를 해결하는데 예시적으로 설명을 할 수 있다.
상기 정보입력장치는 적어도 하나의 센서를 구비하고 사용자나 상기 가상객체의 특성의 변화를 감지하는 것을 특징으로 한다. 상기 센싱된 특성의 변화는 상기한 정보처리장치로 송신하는 송신부를 구비한다.
상기한 특성의 변화는 가상객체 또는 실체객체와 사용자와의 상대적인 위치, 좌표, 방향, 절대좌표의 변화 중의 적어도 하나이상에 대한 변화를 센싱하는 것을 특징으로 한다.
또한 상기한 특성의 변화는 사용자들과 가상객체 또는 실체객체와의 상대적인 위치나 방향 및 움직임의 양을 센싱하는 것을 특징으로 한다.
상기한 센서는 사용자의 소정의 위치에 설치된 자이로 센서 또는 전자기 센서일 수 있다.
상기한 센서는 사용자의 움직임에 연동하여 생성되는 2차원 내지 3차원 영상정보 입력용 카메라 일 수 있다.
또한 상기한 특성의 변화는 키보드, 마우스, 웨어러블 센서 등에 의하여 발생할 수 있다.
또한 상기한 특성의 변화는 실제 사용자 신체의 움직임과 연동된 상기한 가상 인간 모델의 움직임에 의하여 발생할 수 있다.
상기 정보처리장치는 상기한 정보입력장치로부터 전달 받은 정보를 저장, 분석, 모니터링 및 제어신호를 생성하는 것을 특징으로 한다.
상기한 제어신호는 사용자의 설정 또는 제어에 따라 상기한 가상의 객체의 적어도 하나의 모듈의 특성 값의 변화를 생성하는 것을 특징으로 한다. 상기한 모듈의 특성 값의 변화는 연동되거나 이웃하는 적어도 하나의 모듈의 특성 값의 변화를 발생시키는 것을 특징으로 한다.
상기 정보출력장치는 상기 정보처리장치 또는 상기 정보입력장치로부터의 정보를 사용자가 인식 가능한 형태로 제공하는 장치인 것을 특징으로 한다. 상기한 사용자는 본 발명의 시스템을 포함하는 사용자 또는 외부 사용자일 수 있다.
상기한 인식 가능한 형태는 시각, 청각, 촉각, 진동 및 전류나 전기제어를 포함하는 외부의 전자기 장치일 수 있다. 상기한 전자기 장치는 HMD, 모니터, 스피커, 영상출력장치, 전자기진동 모듈, 조명 등이 될 수 있다. 상기한 전자기 장치는 사용자 또는 외부 시스템에서 인식 가능하게 하는 장치로써 상기한 예시가 그 한계를 정하지는 않는다.
상기 데이터 송수신장치는 상기 정보입력장치, 정보출력장치 및 정보처리장치들 중 적어도 하나의 장치의 정보를 외부의 시스템으로 송수신 하는 통신장치인 것을 특징으로 한다. 상기 송수신 장치는 상호 공간적으로 떨어진 장소의 시스템간의 고속통신, 예시적으로 H.264를 이용한 실제 영상 압축 및 송수신 기술을 이용하여 고해상도 송수신과 제어신호를 송수신하는 장치일 수 있다.
본 발명의 실시 예에서 상기 영상정보출력장치는 가상현실(Virtual Reality, 이하 VR), 증강현실(Augmented Reality, 이하 AR) 또는 복합현실(Mixed Reality, 이하 MR) 표시장치 일 수 있다.
상기한 과제해결의 일 실시예 이외의 다른 측면, 특징, 효과들은 이하의 발명을 실시하기 위한 구체적인 내용, 특허청구범위 및 도면으로부터 명확해질 것이다.
상기와 같이 구성되거나 방법을 적용하고 활용 및 응용을 하게 되면 종래의 기술적인 한계나 문제점들이 해결되고 또한 요구되는 새로운 기능들이 구현되는 효과를 얻을 수 있다.
적어도 상호 시야로 확인이 되지 않는 떨어진 장소에서 발생하는 상대방의 행동과 그에 연계되거나 종속되는 시스템이나 장비의 상태 변화를 적어도 하나의 가상공간에서 인지하여 상대방의 행동이나 그에 따른 장비나 시스템의 상태변화의 적절성을 파악하고 공유할 수 있게 된다.
익숙하지 않은 새로운 시스템이나 장비의 분해 조립 및 시운전 등에 있어서 학습자나 지식이나 숙련도를 높여야 하는 적어도 하나의 상대방에게 가이드와 실시간 피드백을 할 수 있다.
또한 하나의 가상공간에 대하여 다수의 인원이 서로 다른 지역에서 참여하여 동일한 시스템이나 장비에 대하여 상대적인 위치에서 학습이나 훈련을 할 수 있는 시스템과 그 방법을 제공하여 하나의 장비나 시스템을 동시에 다수의 사용자가 참여하여 장비나 시스템을 운영할 수 있게 한다.
공간적으로 서로 다른 지역의 사용자들 또는 동일 지역에서 하나의 장비나 시스템에 대하여 상호 제어하고 이를 공유하는 가상 훈련 공간을 제공하여 복잡하거나 다수가 참여하여 운영하는 시스템에 대한 훈련을 할 수 있다.
또한 동일한 가상공간에서 동일한 시스템이나 장비에 대하여 상호 역할을 변경하여 상호 학습이나 훈련을 가능하게 하여 교차훈련이나 학습을 할 수 있게 한다.
동시에 다수의 사용자가 다수의 서로 다른 지역과 공간에서 적어도 하나의 시스템이나 장비에 대하여 훈련 및 제어를 가능하게 하여 공존 체험을 통한 몰입 정도를 향상 시킨다.
도 1은 종래기술의 원격제어 시스템의 일반적인 구성도
도 2는 종래기술의 가상현실장치를 이용한 예시적인 정비시스템
도 3은 본 발명에 따른 단일 시스템의 구성장치들의 예시도
도 4는 본 발명의 실시 예로써 서로 다른 3개 지역간의 시스템 연결관계도
도 5는 본 발명의 실시 예로써 서로 다른 3개 지역에서의 가상정비 상황도
도 6은 본 발명의 실시 예로써 가상객체 실시간 공유 훈련 예시도
도 2는 종래기술의 가상현실장치를 이용한 예시적인 정비시스템
도 3은 본 발명에 따른 단일 시스템의 구성장치들의 예시도
도 4는 본 발명의 실시 예로써 서로 다른 3개 지역간의 시스템 연결관계도
도 5는 본 발명의 실시 예로써 서로 다른 3개 지역에서의 가상정비 상황도
도 6은 본 발명의 실시 예로써 가상객체 실시간 공유 훈련 예시도
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하의 실시 예에서, 본 발명의 사상을 보다 용이하게 이해 될 수 있다.
본 발명에 따른 복합현실 장치를 이용한 동시 다지역 원격지 교차제어 시스템은 하기의 구성들을 포함하여 구성될 수 있다.
영상입력장치 또는 센서에서 입력되는 사용자의 모습 또는 사전에 만들어진 사용자를 대체하는 3차원 형상을 가지는 적어도 하나의 가상 인간 모델과 상기 가상 인간 모델 또는 사용자의 조작이나 움직임에 연동되거나 연계되어 사전에 설정된 고유 특성(Parameter)의 값(value)이 변화되는 적어도 하나 이상의 모듈로 구성되는 3차원 형상정보를 갖는 가상객체와 상기 가상 인간 모델 또는 사용자의 조작이나 변화, 의도 및 움직임 등에 의하여 변화되는 특성 값을 생성하거나 감지하는 적어도 하나의 정보입력장치와 상기 가상 인간 모델 또는 사용자의 움직임이나 의도 및 조작 등에 연계되거나 연동되어 상기 가상객체 또는 실제객체를 구성하는 모듈에 대하여 변화되는 특성 값을 계산하여 이웃하는 적어도 하나 이상의 모듈 상호의 특성의 변화 정도를 계산하는 정보처리장치와 상기 정보처리장치에 의하여 계산된 정보 또는 변화 정도를 사용자가 인식 가능하게 하는 정보출력장치와 상기 정보처리장치 또는 상기 정보입력장치의 정보를 외부로 송수신하는 데이터 송수신장치와 적어도 하나 이상의 다른 지역의 송수신장치로부터의 하나 이상의 데이터의 처리를 처리하는 다중 채널 방식의 네트워크 기반의 서버를 구비한다.
상기한 예시에 부가적으로 하기와 같은 구성을 더 구비하여 본 발명의 목적이 달성 될 수 있다.
상기 정보입력장치는 적어도 하나의 센서를 구비하고 사용자나 상기 가상객체의 특성의 변화를 감지하는 것을 특징으로 한다. 상기 센싱된 특성의 변화는 상기한 정보처리장치로 송신하는 송신부를 구비한다.
상기한 특성의 변화는 가상객체 또는 실체객체와 사용자와의 상대적인 위치, 좌표, 방향, 절대좌표의 변화 중의 적어도 하나이상에 대한 변화를 센싱하는 것을 특징으로 한다.
또한 상기한 특성의 변화는 사용자들과 가상객체 또는 실체객체와의 상대적인 위치나 방향 및 움직임의 양을 센싱하는 것을 특징으로 한다.
상기한 센서는 사용자의 소정의 위치에 설치되어 움직임을 센싱하는 자이로 센서 또는 전자기 센서일 수 있다. 상기한 센싱은 사용자에게 설치된 센서와 2차원 또는 3차원으로 배치된 센서들과의 상호 작용에 의한 상대적인 위치나 방향 및 움직임의 양이 센싱되는 것을 특징으로 한다.
상기한 센서는 사용자의 움직임에 연동하여 생성되는 2차원 내지 3차원 영상정보 입력용 카메라 일 수 있다.
또한 상기한 특성의 변화는 키보드, 마우스, 웨어러블 센서 등에 의하여 발생할 수 있다.
또한 상기한 특성의 변화는 실제 사용자 신체의 움직임과 연동된 상기한 가상 인간 모델의 움직임에 의하여 발생할 수 있다.
상기 정보처리장치는 상기한 정보입력장치로부터 전달 받은 정보를 저장, 비교, 분석, 계산, 모니터링 및 제어신호 생성 등의 적어도 하나이상을 수행하는 것을 특징으로 한다.
상기 정보입력장치로부터 전달 받은 정보는 적어도 하나이상의 상기 가상객체 또는 실체객체를 구성하는 모듈의 특성 값이 변화된 정보이다.
상기한 제어신호는 사용자의 설정 또는 제어에 따라 상기한 가상의 객체의 적어도 하나의 모듈의 특성 값의 변화를 생성하는 것을 특징으로 한다. 상기한 모듈의 특성 값의 변화는 연동되거나 이웃하는 적어도 하나의 모듈의 특성 값의 변화를 발생시키는 것을 특징으로 한다. 상기 가상객체를 구성하는 모듈의 특성 값의 변화는 각 모듈의 3차원 형상정보의 최외각 경계면에서 이루어지는 것을 특징으로 한다.
상기 정보출력장치는 상기 정보처리장치 또는 상기 정보입력장치로부터의 정보를 사용자가 인식 가능한 형태로 제공하는 장치인 것을 특징으로 한다. 상기한 사용자는 본 발명의 시스템을 포함하는 사용자 또는 외부 사용자일 수 있다.
상기한 인식 가능한 형태는 시각, 청각, 촉각, 진동 및 전류나 전기제어를 포함하는 외부의 전자기 장치일 수 있다. 상기한 전자기 장치는 VR, MR, AR 중의 적어도 하나의 기능을 갖는 HMD, 모니터, 스피커, 기타 영상출력장치, 전자기진동 모듈, 조명 등이 될 수 있다. 상기한 전자기 장치는 사용자 또는 외부 시스템에서 인식 가능하게 하는 장치로써 상기한 예시가 그 한계를 정하지는 않는다.
상기 데이터 송수신장치는 상기 정보입력장치, 정보출력장치 및 정보처리장치들 중 적어도 하나의 장치의 정보를 외부의 시스템으로 송수신 하는 통신장치인 것을 특징으로 한다. 상기 송수신 장치는 상호 공간적으로 떨어진 장소의 시스템간의 고속통신, 예시적으로 H.264를 이용한 실제 영상 압축 및 송수신 기술을 이용하여 고해상도 송수신과 제어신호를 송수신하는 장치일 수 있다.
본 실시예는 VR, MR, AR 등을 구현하는 HMD장치를 예시적으로 사용하는 바 HTC사의 VIVE장치를 가상 현실 헤드셋의 하나로 사용을 한다. 이 제품은 2016년 4월 5일 출시되었고 룸 스케일 기술을 활용하여 센서를 통해 방을 3차원 공간으로 변화시켜 주도록 설계되어 있다. 가상 현실을 통해 사용자가 자연스럽게 탐험할 수 있고 걸을 수도 있으며 모션 추적 핸드헬드 컨트롤러를 사용하여 생생하게 물체를 조작할 수 있다. 또한 오디와 3차원 스테레오 카메라가 일체형으로 구성된 제품도 있다.
도 1은 종래기술의 원격제어 시스템의 일반적인 구성도이다.
원격지에 있는 제어 대상의 로봇에 대하여 상호 이격된 장소에서 클라이언트 측에서 다양한 제어 패널이나 모니터링 장비를 통해서 원격지의 로봇의 상태나 움직임을 제어할 수 있다. 초고속 유무선 망에 의하여 정교한 로봇의 제어나 영상정보들을 송수신 할 수 있다. 로봇이나 시스템의 움직임을 센싱하는 다차원 센서나 카메라를 통해서 다양한 정보를 수신 받을 수 있다. 여러 대의 로봇이나 장비에 대하여 제어 및 모니터링도 가능하다. 또한 로봇이나 장치에 설치 가능한 영상장치를 통해서 원격지에서 First Person View(이하 FPV)를 통해서 현장감을 가지고 제어도 가능하다.
도 2는 종래기술의 가상현실장치를 이용한 예시적인 정비시스템으로써 서로 다른 지역에 위치한 적어도 2인의 사용자간의 영상을 공유함으로써 상호 원격지에서의 동일한 실제 시스템에 대한 정보를 공유하는 것을 예시적으로 나타낸 것이다. 도 2에서 본사가 위치한 지역을 B지역이라고 하고 이곳에서 정비 교육 및 훈련을 진행을 하는 경우, 원격지인 B지역에는 출시된 차량의 실제 신형 엔진에 대하여 본사 정비 담당자가 실제 정비 행위를 하는 것을 구비된 다양한 각도의 카메라를 통해서 다른 지역의 정비 담당자들이 정비 담당자의 시각을 포함하여 정비실습을 관찰할 수 있다. 통상적으로 이러한 시스템의 구성과 방법은 용이하게 구현이 될 수 있다. 그러나 수동적으로 관찰을 하고 실제적인 학습의 반복이나 훈련은 시간적인 간격을 두고 관찰한 기억이나 보조 모니터, 시각장치 등을 통해 참조 영상물을 보면서 훈련을 하게 된다. 본사의 정비 담당자에게 본인의 학습 상태나 훈련 수준에 대한 실시간 피드백이나 훈련 중 교정이나 상태의 질의를 실시간으로 이루어지기 어렵다. 또한 본사에서 다른 지역에서 정비 훈련을 받는 학습자에게 실시간으로 적절한 가이드를 통한 단계별 지도를 하기에 용이하지 않다. 또한 새로운 지역의 정비사들을 훈련하고자 할 때에 실제 장비를 분해조립하고 시험하는 반복을 보여주는 것도 시간과 비용 등이 많이 발생하게 된다.
도 3은 본 발명에 따른 실시 예로써 특정 지역의 단일 시스템의 구성장치들의 예시도이다. 영상입력장치 또는 센서에서 입력되는 사용자의 모습 또는 사전에 만들어진 사용자를 대체하는 3차원 형상을 가상 인간 모델(100)로 얼굴과 신체사이즈 등은 사용자 설정에 따라서 변경이 가능하며, 특히 사용자의 3차원 얼굴정보를 기반으로 얼굴을 셋팅할 수 있다. 상기 가상 인간 모델(100) 또는 사용자의 조작이나 움직임에 연동되거나 연계되어 사전에 설정된 고유 특성(Parameter)의 값(value)이 변화되는 다수의 3차원 형상정보를 갖는 부품모듈들로 구성되는 가상객체(200)를 구비하거나 저장할 수 있는 정보저장부를 구비할 수 있다. 실시 예에서는 신규로 출시된 엔진을 예시적으로 설명한다. 가상객체(200)에 대하여 상기 가상 인간 모델(100) 또는 사용자의 조작이나 변화, 의도 및 움직임 등에 의하여 변화되는 특성 값을 생성하거나 감지하는 적어도 하나의 정보입력장치(300)로써 손동작을 감지하는 전자글러브(310), 사용자의 움직임을 센싱하거나 동작의 영상정보를 입력하기 위한 입체카메라(320), 하체의 움직임의 상태를 센싱하는 하지 동작 인식 센서(330), 상체에서 특히 팔의 움직임을 센싱하는 팔 움직임 인식 센서(340) 등과 같이 사용자의 움직임을 센싱하여 상기 가상객체(200)과의 상호 경계면에서의 특성변화를 계산하게 된다. 정보처리장치(400)은 시스템의 성능에 따라서 사용자의 신체에 배치하는 웨어러블 컴퓨터일 수 있고, 유무선으로 근거리에서 통신 가능한 인접한 위치에 배치되는 컴퓨터의 형태로 구성될 수 있다. 상기 정보처리장치(400)은 상기 가상 인간 모델 또는 사용자의 움직임이나 의도 및 조작 등에 연계되거나 연동되어 상기 가상객체 또는 실제객체를 구성하는 모듈에 대하여 변화되는 특성 값을 계산하여 이웃하는 적어도 하나 이상의 모듈 상호의 특성의 변화 정도를 계산하거나, 실제 사용자의 움직임을 상기 가상인간모델에 매칭을 시키기 위한 계산을 수행하게 된다.
상기 정보처리장치에서 수행된 계산된 정보는 VR, MR 및 AR 기능을 갖는 HMD 형태의 정보출력장치(500)을 통해서 사용자는 가상의 객체에 대하여 변화된 특성의 결과를 인식하게 된다. 본 실시 예에서는 HMD에 3차원 카메라 기능을 포함하는 제품으로 상기한 입체카메라(320) 일체형으로 구성이 될 수 있다. 선택적으로 사용자는 HMD를 착용한 상태에서 실제객체에 대한 증강현실이나 복합현실의 영상정보를 확인할 수 있게 된다. 일체형으로 구성이 되는 경우 선택적으로 FPV 영상을 통하여 현재 특정 작업자의 시각을 공유하며 학습 또는 훈련을 할 수 있게 된다. 또한 상기 HMD에 설치되거나 사용자의 소정의 위치에 설치 될 수 있는 카메라는 상기한 손동작 인식 전자 글러브(310)를 대신하여 사용자의 손동작의 상태를 인식하게 설치 할 수 있다. 상기한 카메라나 센서들에 의하여 상기 가상인간모델의 손동작과 형상 및 움직임을 일치시키는 설정이 아울러 가능하다.
상기 구성들에 추가적으로 외부 또는 다른 지역의 시스템과의 연계 및 연동, 정보공유를 위한 정보송수신장치(600)를 사용자에게 설치하거나 상기 정보처리 장치의 일측에 배치할 수 있다. 상기한 정보송수신장치는 단일 시스템의 내부에서 각 구성들간의 유무선 통신을 수행할 수 있다. 이로써 본 발명에 따른 단일 시스템 구성이 마련될 수 있다. 그리고 단일 시스템의 구성에 따라서 상기 정보처리시스템(400)은 다른 지역의 정보송수신장치(600)를 통해서 전송되는 정보를 가지고 데이터를 처리하는 서버장치(700)의 기능을 수행 할 수 있다. 통상적으로는 고속의 통신망과 연계되어 별도의 서버장치를 운영할 수 있다.
도 4는 본 발명의 실시 예로써 서로 다른 세 지역간의 시스템 연결 관계도 이다.
예시적으로 지역B가 연구개발의 본사 또는 정비교육이나 훈련을 주관하는 지역이고 지역A와 지역B는 본 발명에 따른 단일 시스템을 사용하여 통신망으로 연결이 될 수 있다. 공유되는 가상객체 또는 전송되는 실제객체의 영상정보를 기반으로 각 지역의 참여자들의 상대적인 위치와 방향의 기준이 설정된다. 이후 각 참여자는 가상객체 또는 실제객체의 영상정보와 함께 타지역의 참여자들의 가상인간모델을 정보출력장치인 HMD를 통해서 상대적인 위치와 방향 및 움직임과 실시간 가상객체 또는 실제객체에 대하여 변화되는 특성의 변화들을 인지하게 된다.
도 5는 본 발명의 실시 예로써 서로 다른 세 지역에서의 가상정비 상황도이다.
서로 물리적으로 떨어진 지역에서 다수의 사용자가 적어도 하나의 실체 또는 가상의 시스템 또는 장비에 대하여 동시에 제어 또는 정비하는 방법 및 그 장치로써 실제 정비해야 하는 A지역 및 C지역에서 가상 또는 실제 장비를 사용하여 시범을 보이는 B지역의 적어도 한 명(본 실시 예에서는 사용자B)의 시범 정비 인력에 의하여 제어 및 정비되는 상황을 A지역 및 C지역의 시스템 접속 내지는 사용하는 적어도 한 명의 참가자가 B지역에서 일어나는 가상 또는 실제 장비에 대한 시범 정비를 관찰할 수 있는 다인 다중 원격지 융합 제어 시스템이 제공되어진다.
예시적으로 다국적 기업에서 특수차량의 정비를 위한 기본방법은 각 국가나 지역별로 제공되지만, 정비의 수준이 높거나 제품이나 시스템이 개선이 되거나 새롭게 정비교육이나 훈련이 필요한 경우가 발생하게 된다. 또한 사용중의 장비의 고장이나 주기적인 점검을 해야 하는 상황에서 간단한 정비 교육이나 사용자 매뉴얼을 기반으로 하는 정비 이상의 역량이 필요한 경우가 발생한다. 새로운 정비방법이나 상세한 분해 조립 등의 정비 수준이 단계별로 높아 질 수 있다. 이 때에는 시간적인 간격을 두고 정비 수준이 높아질 때까지 지속적인 관리가 필요하다. 특히 해당 지역이 본사와 먼 거리에 있거나 해외에 위치하는 경우에 해당 지역에 숙달된 정비인력을 수시로 교육을 통해 양성하거나 파견할 수 없다. 이러한 경우 본 발명에 따른 하나의 실시 예로써 상기한 상황을 저비용과 높은 현실감으로 원격지에 있는 피훈련자나 피교육자에게 효율적으로 훈련할 수 있게 된다.
개발 또는 본사가 위치한 B지역에서 다른 지역 A 또는 C에 있는 실제 장비(220) 또는 가상의 장치에 대하여 B지역에 있는 전문가가 해당 장비의 분해 조립 및 시운전을 본 발명의 시스템을 통해 시연을 하게 되면 A 또는 C지역의 비숙련자가 동일한 시각이나 훈련대상 장치나 시스템에 대한 상대적인 위치 또는 설정되는 위치에서 그 과정을 보게 된다. 이 때 참여 사용자간의 위치를 변경하여 상대방의 위치에서 변화된 시각으로 관찰이나 학습 및 훈련을 할 수 있다.
도 6은 본 발명에 따른 실시 예로써 다른 지역에 위치한 3명의 참가자가 하나의 가상 객체를 실시간 공유하면서 학습 및 훈련을 하는 예시도이다. 각자의 위치에서 사전에 설정된 가상객체에서의 각자의 상대적인 위치를 설정하게 된다. 공유된 가상객체를 기준으로 각각의 설정 된 위치에서 방향과 움직임이 일어나게 되면 상기한 정보처리장치에서 참여자의 조작내용과 움직임의 정보를 가지고 가상객체의 특성의 변화를 실시간으로 계산하여 정보출력장치를 통해서 참여자가 공유를 하게 된다. 또한 각자의 역할과 위치 및 방향을 가상객체를 기준으로 상호 교차하여 역할을 달리 수행하는 연습과 훈련을 할 수 있다. 가상객체를 구성하는 각 모듈에 대하여 기본위치를 기반으로 역할 변경이 가능하고, 가상의 공간에서 상호 인지상황에서 역할을 변경하여 수행할 수 있다.
본 발명의 구성요소인 무선에 의한 송수신의 경우는 그 추가적인 구성과 방법 및 신호전달, 영상정보의 일반적인 처리 등은 당업자 수준에서 용이하게 이해되고 구현될 수 있는바 본 발명의 상세한 설명에서는 배제하였다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 가상인간모델
200, 210 : 가상객체
220: 실제객체
310: 손동작 인식 전자 글러브
320: 사용자 행동정보 인식용 카메라
330: 하지 동작 인식 센서
340: 팔 움직임 인식 센서
400: 정보처리장치
500: 정보출력장치
600: 정보송수신장치
700: 서버장치
200, 210 : 가상객체
220: 실제객체
310: 손동작 인식 전자 글러브
320: 사용자 행동정보 인식용 카메라
330: 하지 동작 인식 센서
340: 팔 움직임 인식 센서
400: 정보처리장치
500: 정보출력장치
600: 정보송수신장치
700: 서버장치
Claims (10)
- 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템은
영상입력장치 또는 센서에서 입력되는 사용자의 모습 또는 사용자를 대체하는 3차원 형상을 가지는 가상 인간 모델과
상기 가상 인간 모델 또는 사용자의 움직임이나 조작 및 제어에 따라 특성의 값이 변화되는 적어도 하나 이상의 모듈로 구성되는 3차원 형상정보를 갖는 가상객체의 정보 저장부와
상기 가상 인간 모델 또는 사용자의 조작이나 움직임에 의하여 변화되는 특성 값을 생성하거나 센싱하는 적어도 하나의 정보입력장치와
상기 가상 인간 모델 또는 사용자의 움직임이나 조작에 연동 또는 연계되어 상기 정보저장부의 가상객체 또는 실제객체에 대하여 변화된 특성 값을 계산하는 정보처리장치와
상기 정보처리장치에 의하여 계산된 정보를 사용자에게 인식하게 하는 정보출력장치와
상기 정보처리장치 또는 상기 정보입력장치의 정보를 외부로 송수신하는 정보송수신장치를 구비한다. - 제1항에 있어서 상기 가상 인간 모델 또는 사용자의 조직이나 움직임의 변화는 상기 가상객체 또는 실체객체와의 상대적인 위치와 방향 정보를 포함하는 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제1항에 있어서 상기 정보 저장부에는 적어도 하나의 가상객체 또는 실제객체의 3차원 형상정보를 포함된 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제1항에 있어서 상기 정보출력장치는 가상현실, 증강현실 또는 복합현실 중에서 적어도 하나의 기능이 구비된 영상정보출력장치인 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제1항에 있어서 상기 정보출력장치는 전자기적인 제어신호를 포함하고 적어도 상기 사용자의 신체적 지각으로 인식 가능한 정보출력이 되는 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제1항에 있어서 상기 정보처리장치는 상기 정보입력장치에 의한 상기 가상객체의 적어도 하나의 모듈의 특성 값의 변화를 각 모듈의 형상정보의 최외각 경계면에서 이웃하는 적어도 하나이상의 모듈의 특성 값의 변화를 생성하는 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제1항에 있어서 적어도 하나 이상의 다른 지역의 송수신장치로부터의 하나 이상의 데이터의 처리를 처리하는 다중 채널 방식의 네트워크 기반의 서버장치를 더 구비한 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제7항에 있어서 적어도 하나 이상의 서로 다른 지역의 가상객체 또는 실제객체의 3차원 형상정보를 선택적으로 공유하고 실시간 상기 정보출력장치를 통해 서로 다른 지역의 사용자가 인식 가능하게 설정되는 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제8항에 있어서 상기 정보출력장치를 통해서 상기 가상객체 또는 실제객체의 3차원형상 정보와 다른 지역의 사용자의 상기 가상객체 또는 실제객체와의 상대적인 위치와 방향정보를 포함하는 상기 가상인간모델을 동시에 인식가능하게 설정되는 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
- 제1항에 있어서 상기 정보처리장치는 사용자가 설정한 시간 동안의 상기 가상인간모델 또는 사용자의 조작이나 제어에 의한 상기 가상객체 또는 실제객체의 적어도 하나이상의 모듈의 특성의 변화를 저장하고 상기 정보출력장치로 선택적으로 송신 가능하게 설정되는 것을 특징으로 하는 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180015344A KR102687406B1 (ko) | 2018-02-07 | 2018-02-07 | 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180015344A KR102687406B1 (ko) | 2018-02-07 | 2018-02-07 | 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190095849A true KR20190095849A (ko) | 2019-08-16 |
KR102687406B1 KR102687406B1 (ko) | 2024-07-22 |
Family
ID=67806643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180015344A KR102687406B1 (ko) | 2018-02-07 | 2018-02-07 | 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102687406B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889514A (zh) * | 2019-10-17 | 2020-03-17 | 中国民用航空飞行学院 | 空中交通管制台站设备应急抢修远程支援系统及方法 |
KR20210042028A (ko) * | 2019-10-08 | 2021-04-16 | 주식회사 이너테인먼트 | 가상공간 내 영상 음성 데이터 송수신을 통한 실시간 양방향 커뮤니케이션 방법 및 시스템 |
KR102259350B1 (ko) * | 2019-12-24 | 2021-06-01 | 주식회사 브이알미디어 | Ar 기반 원격 지원 시스템 및 그 동작 방법 |
KR20230039771A (ko) * | 2020-08-14 | 2023-03-21 | 지멘스 악티엔게젤샤프트 | 원격 지원을 위한 방법 및 디바이스 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010055371A (ko) * | 1999-12-10 | 2001-07-04 | 강상훈 | 네트워크 기반의 다중 사용자 3차원 그래픽 가상 현실시스템 |
KR20090001823A (ko) * | 2007-05-25 | 2009-01-09 | 건국대학교 산학협력단 | 협업 가상현실 환경에서의 분자 모델링 시스템 및 방법 |
KR101498610B1 (ko) * | 2013-12-03 | 2015-03-09 | 대한민국 | 가상환경 내 캐릭터와 훈련자 동작연동을 통한 전술 모의훈련 장치, 모의훈련 연동방법 및 모의훈련 모니터링 방법 |
KR20150132681A (ko) * | 2014-05-15 | 2015-11-26 | 리치앤타임(주) | 다중 접속을 통하여 다수의 훈련자의 개별적인 가상훈련공간의 인식과 공유된 가상작업공간에서 집단적이며 조직적인 협력훈련이 가능한 몰입식 네트워크 가상훈련 시스템의 클라이언트 시스템을 구성하는 네트워크 가상훈련 처리장치 및 이를 이용한 몰입식 네트워크 가상훈련 방법. |
-
2018
- 2018-02-07 KR KR1020180015344A patent/KR102687406B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010055371A (ko) * | 1999-12-10 | 2001-07-04 | 강상훈 | 네트워크 기반의 다중 사용자 3차원 그래픽 가상 현실시스템 |
KR20090001823A (ko) * | 2007-05-25 | 2009-01-09 | 건국대학교 산학협력단 | 협업 가상현실 환경에서의 분자 모델링 시스템 및 방법 |
KR101498610B1 (ko) * | 2013-12-03 | 2015-03-09 | 대한민국 | 가상환경 내 캐릭터와 훈련자 동작연동을 통한 전술 모의훈련 장치, 모의훈련 연동방법 및 모의훈련 모니터링 방법 |
KR20150132681A (ko) * | 2014-05-15 | 2015-11-26 | 리치앤타임(주) | 다중 접속을 통하여 다수의 훈련자의 개별적인 가상훈련공간의 인식과 공유된 가상작업공간에서 집단적이며 조직적인 협력훈련이 가능한 몰입식 네트워크 가상훈련 시스템의 클라이언트 시스템을 구성하는 네트워크 가상훈련 처리장치 및 이를 이용한 몰입식 네트워크 가상훈련 방법. |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210042028A (ko) * | 2019-10-08 | 2021-04-16 | 주식회사 이너테인먼트 | 가상공간 내 영상 음성 데이터 송수신을 통한 실시간 양방향 커뮤니케이션 방법 및 시스템 |
CN110889514A (zh) * | 2019-10-17 | 2020-03-17 | 中国民用航空飞行学院 | 空中交通管制台站设备应急抢修远程支援系统及方法 |
KR102259350B1 (ko) * | 2019-12-24 | 2021-06-01 | 주식회사 브이알미디어 | Ar 기반 원격 지원 시스템 및 그 동작 방법 |
KR20230039771A (ko) * | 2020-08-14 | 2023-03-21 | 지멘스 악티엔게젤샤프트 | 원격 지원을 위한 방법 및 디바이스 |
Also Published As
Publication number | Publication date |
---|---|
KR102687406B1 (ko) | 2024-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101262848B1 (ko) | 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치 | |
KR101671320B1 (ko) | 다중 접속을 통하여 다수의 훈련자의 개별적인 가상훈련공간의 인식과 공유된 가상작업공간에서 집단적이며 조직적인 협력훈련이 가능한 몰입식 네트워크 가상훈련 시스템의 클라이언트 시스템을 구성하는 네트워크 가상훈련 처리장치 및 이를 이용한 몰입식 네트워크 가상훈련 방법. | |
KR101839113B1 (ko) | 다중 접속을 통하여 다수의 훈련자의 개별적인 가상훈련공간의 인식과 공유된 가상작업공간에서 집단적이며 조직적인 협력훈련이 가능한 몰입식 네트워크 가상훈련 시스템의 클라이언트 시스템을 구성하는 네트워크 가상훈련 처리장치 및 이를 이용한 몰입식 네트워크 가상훈련 방법. | |
KR102687406B1 (ko) | 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법 | |
US11850755B2 (en) | Visualization and modification of operational bounding zones using augmented reality | |
Roldán et al. | Multi-robot systems, virtual reality and ROS: developing a new generation of operator interfaces | |
KR101390383B1 (ko) | 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치 | |
KR100721713B1 (ko) | 몰입형 활선작업 교육시스템 및 그 방법 | |
US7714895B2 (en) | Interactive and shared augmented reality system and method having local and remote access | |
KR101756792B1 (ko) | Hmd형 가상현실 콘텐츠 모니터링 및 제어 시스템 | |
Teixeira et al. | Teleoperation using google glass and ar, drone for structural inspection | |
Szafir | Mediating human-robot interactions with virtual, augmented, and mixed reality | |
EP2499550A1 (en) | Avatar-based virtual collaborative assistance | |
CN110770798B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
JP6730363B2 (ja) | 操作訓練システム | |
KR20160020136A (ko) | 가상현실과 rpg을 활용한 재난상황 대처 교육 시스템 | |
CN108028906A (zh) | 信息处理系统和信息处理方法 | |
WO2020045254A1 (ja) | 表示システム、サーバ、表示方法及び装置 | |
CN107257946B (zh) | 用于虚拟调试的系统 | |
KR102259762B1 (ko) | 안전 사고 예방을 위한 가상 현실을 활용한 크레인 협동 작업 훈련 시스템 | |
Oyama et al. | Augmented reality and mixed reality behavior navigation system for telexistence remote assistance | |
TWI740361B (zh) | 智慧操作輔助系統及智慧操作輔助方法 | |
US11534909B2 (en) | Displaying method of robot simulator | |
JP2021043135A (ja) | 放射線量分布表示システムおよび放射線量分布表示方法 | |
Pan et al. | Integrating extended reality and robotics in construction: A critical review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
E701 | Decision to grant or registration of patent right |