KR20120000437A - Apparatus and method for augmented reality interface agent - Google Patents

Apparatus and method for augmented reality interface agent Download PDF

Info

Publication number
KR20120000437A
KR20120000437A KR1020100060800A KR20100060800A KR20120000437A KR 20120000437 A KR20120000437 A KR 20120000437A KR 1020100060800 A KR1020100060800 A KR 1020100060800A KR 20100060800 A KR20100060800 A KR 20100060800A KR 20120000437 A KR20120000437 A KR 20120000437A
Authority
KR
South Korea
Prior art keywords
unit
user
image
information
augmented reality
Prior art date
Application number
KR1020100060800A
Other languages
Korean (ko)
Other versions
KR101135753B1 (en
Inventor
김상철
우종우
신기현
Original Assignee
국민대학교산학협력단
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단, 건국대학교 산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020100060800A priority Critical patent/KR101135753B1/en
Publication of KR20120000437A publication Critical patent/KR20120000437A/en
Application granted granted Critical
Publication of KR101135753B1 publication Critical patent/KR101135753B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: An apparatus and a method for augmented reality interface agent are provided to enable the formation of a human-friendly interface by grasping user intention through the external information of augmented reality environment and user information. CONSTITUTION: A client unit(100) adjusts and outputs reality images and virtual 3D(Dimensional) images based on user information and tracking information. A server unit(200) reasons the situation which is subject to user intention and transmits the situation to the client unit. Service software(300) provides various function modules for various works according to the situation. The client unit comprises an image acquisition unit, an extracting unit for extracting user's location and direction, an image generator, and a matching unit.

Description

증강현실기반의 인터페이스 에이전트 시스템 장치 및 방법{Apparatus and Method for Augmented Reality Interface Agent}Augmented Reality-based Interface Agent System Apparatus and Method {Apparatus and Method for Augmented Reality Interface Agent}

본 발명은 증강현실기반의 인터페이스 에이전트에 관한 것으로, 특히 사용자 정보 및 트래킹(tracking) 정보를 이용하여 사용자의 의도를 파악한 후 3D 가상 캐릭터를 통해 사용자가 소정 프로세스를 적절히 수행하도록 하는 증강현실기반의 인터페이스 에이전트 시스템 장치 및 방법에 관한 것이다.
The present invention relates to an augmented reality-based interface agent, and in particular, an augmented reality-based interface that allows a user to appropriately perform a predetermined process through a 3D virtual character after grasping a user's intention using user information and tracking information. An agent system apparatus and method.

현재 널리 사용되고 있는 컴퓨터와 사용자(user)와의 인터페이스는 그래픽 사용자 인터페이스를 중심으로 하는 직접 조작(Direct Manipulation) 방식이 주류를 이루고 있다. The interface between a computer and a user, which is widely used nowadays, is mainly based on a direct manipulation method centering on a graphical user interface.

상기 직접 조작 방식은 사용자가 그래픽 사용자 인터페이스로 제공되는 메뉴, 아이콘, 포인트 장치 등의 도구 모음을 사용하여 프로그램 내부에 직접적인 명령을 전달하는 방식이다. The direct manipulation method is a method in which a user transmits a direct command inside a program using a toolbar such as a menu, an icon, a point device, and the like provided in a graphical user interface.

하지만, 상기 직접 조작 방식은 프로그램이 제공하는 기능들이 방대해짐에 따라 각 기능들을 조작하기 위한 도구 모음 또한 복잡하게 되는 문제를 초래한다. However, the direct manipulation method causes a problem that the toolbar for manipulating each function is also complicated as the functions provided by the program become huge.

또한, 상기 직접 조작 방식은 사용자가 원하는 목표를 성취하기 위해서는 프로그램에서 제공하는 다양한 도구에 대한 지식을 습득하여야 하는 번거로움이 있다. In addition, the direct manipulation method is cumbersome to acquire knowledge about various tools provided by the program in order to achieve a desired goal.

따라서, 사용자의 이해를 돕거나 작업을 대신 수행하는 프로세스가 필요하였고, 이에 인터페이스 에이전트(Interface Agent)가 개발되었다. 상기 인터페이스 에이전트는 사람과 프로그램 사이의 상호작용을 위한 매개체 역할을 수행하며 사용자의 목적을 성공적으로 파악하여 실행시켜 주는 지능형 프로세스이다. 즉 사용자가 수행하고자 하는 작업에 대한 사전지식을 가지고 사용자의 의도를 파악하여 사용자의 작업수행을 보조하거나 임무를 대신하여 수행하는 프로그램이고, 업무 실행에 대한 조언을 듣거나 업무를 대리 수행함으로써 편이성을 추구할 수 있다. Therefore, a process for helping a user understand or perform a task on behalf of the user was required. Accordingly, an interface agent was developed. The interface agent is an intelligent process that acts as an intermediary for interaction between a person and a program and successfully grasps and executes a user's purpose. In other words, it is a program that assists a user to perform a task or performs on behalf of a task by grasping the user's intention with prior knowledge of the task that the user wants to perform. I can pursue it.

하지만, 상기 인터페이스 에이전트를 이용한 프로세스는 에이전트가 존재하는 소프트웨어에 의존적이고 시스템의 내부상태에 대한 정보만을 활용하여 사용자의 상황을 판단하기 때문에, 사용자의 실시간 상황을 인지하고 이를 활용하기에는 많은 제약이 따르는 문제점이 있다.
However, since the process using the interface agent is dependent on the software in which the agent exists and determines the user's situation by using only information on the internal state of the system, there are a lot of limitations in recognizing and using the real-time situation of the user. There is this.

따라서 본 발명의 목적은 상기한 문제점을 해결하기 위한 것으로, 인터페이스 에이전트를 증강현실 공간으로 확장하여 가상 캐릭터를 매개체로 한 사용자와의 상호작용으로 보다 인간 친화적인 인터페이스를 제공할 수 있도록 한 증강현실기반의 인터페이스 에이전트 시스템 장치 및 방법을 제공하는 것이다.
Therefore, an object of the present invention is to solve the above problems, augmented reality based to extend the interface agent to the augmented reality space to provide a more human-friendly interface by interacting with the user via the virtual character as a medium It is to provide an interface agent system apparatus and method.

상기한 목적을 달성하기 위한 본 발명의 특징에 따르면, 사용자 정보 및 트래킹 정보에 기초하여 현실 영상과 가상 3D 이미지를 정합하여 출력하는 클라이언트유닛; 사용자가 의도한 상황을 추론하여 상기 클라이언트 유닛에게 전달하는 서버유닛; 그리고 상기 서버유닛의 요청에 의하여 상기 추론된 상황에 따라 적절한 작업을 수행할 수 있도록 다양한 기능별 모듈을 제공하는 서비스 소프트웨어를 포함하여 구성된다. According to a feature of the present invention for achieving the above object, a client unit for matching and outputting the real image and the virtual 3D image based on the user information and tracking information; A server unit inferring a situation intended by a user and delivering the same to the client unit; And service software that provides various functional modules to perform appropriate tasks according to the inferred situation at the request of the server unit.

상기 클라이언트 유닛은, 주변 환경의 영상을 획득하는 영상획득부, 상기 영상획득부가 획득한 영상정보를 통해 현재 사용자의 위치 및 방향을 추출하는 추출부, 상기 추출부에 의해 추출된 정보에 따라 상기 서버유닛에서 전송받은 정보를 기초로 가상 3D 이미지로 생성하는 이미지 생성부, 상기 이미지 생성부가 생성한 정보와 현실 영상 정보를 하나의 정보로 표시되게 정합하는 정합부를 포함하여 구성된다. The client unit may include an image acquisition unit that acquires an image of a surrounding environment, an extraction unit that extracts a current user's position and direction through the image information obtained by the image acquisition unit, and the server according to the information extracted by the extraction unit. And an image generator for generating a virtual 3D image based on the information received from the unit, and a matching unit for matching the information generated by the image generator and the actual image information to be displayed as one information.

상기 서버 유닛은, 상기 영상획득부에서 제공한 영상정보를 이용하여 사용자의 위치 및 방향을 파악하는 외부상태모델부, 상기 서비스 소프트웨어에 의하여 상기 사용자의 의도를 파악하는 내부상태모델부, 상기 외부상태모델부에 의한 사용자의 위치 및 방향과 상기 내부상태모델부를 통해 상기 사용자의 의도를 추론하는 추론부, 상기 추론부에 의해 추론된 현재 상황에 대하여 작업 계획을 생성하는 작업 계획부, 상기 작업 계획에 의하여 상기 서비스 소프트웨어의 함수 호출을 통해 작업을 수행하고, 상기 수행된 작업을 가상 3D 이미지로 생성하도록 상기 이미지 생성부로 전달하는 작업 수행부를 포함하여 구성한다. The server unit may include an external state model unit configured to determine a location and a direction of the user using the image information provided by the image acquisition unit, an internal state model unit configured to determine the intention of the user by the service software, and the external state. An inference unit for inferring the user's intention through the internal state model unit and a position and direction of the user by a model unit, a work plan unit for generating a work plan for the current situation inferred by the inference unit, and in the work plan And performing a task through a function call of the service software, and transmitting a task to the image generator to generate the virtual 3D image.

상기 클라이언트 유닛은, 영상정보를 촬영할 수 있도록 카메라가 탑재된 휴대용 기기이다. The client unit is a portable device equipped with a camera so as to capture video information.

본 발명의 다른 특징은, 클라이언트 유닛이 영상 획득을 통해 사용자의 위치 및 방향을 추출하는 단계; 서버 유닛이 상기 추출된 사용자의 위치 및 방향과 작업에 대한 사전지식을 기초로 하여 현재 상황을 추론하는 단계; 상기 서버 유닛이 상기 추론된 현재 상황에 따라 생성된 작업계획을 서비스 소프트웨어의 함수호출에 의하여 수행함과 동시에 수행중인 작업에 대한 상황을 상기 클라이언트유닛으로 전송하는 단계; 상기 클라이언트 유닛이 상기 수행중인 작업에 대한 정보를 이용하여 가상 3D 이미지를 생성하고, 현실 영상정보와 통합하여 사용자에게 제공하는 단계를 포함하여 구성된다.
Another aspect of the invention, the client unit comprises the steps of extracting the location and direction of the user through image acquisition; Deriving, by the server unit, the current situation based on the extracted position and direction of the user and prior knowledge of the task; Executing, by the server unit, a work plan generated according to the inferred current situation by a function call of service software, and simultaneously transmitting a situation about the work being performed to the client unit; And generating, by the client unit, the virtual 3D image by using the information on the work being performed, and providing the user with the real image information.

본 발명에 따르면, 증강현실 환경의 외부정보 및 사용자 정보를 통해 사용자의 의도를 파악하고, 파악된 의도를 충족시키기 위해 생성된 프로세스에 따라 사용자에게 사용자 중심의 의사전달 방식으로 가상 캐릭터를 매개체로 제공하고 있어, 친화적인 인터페이스를 제공하게 됨은 물론 이에 따라 사용자는 주어진 작업에 대한 올바른 계획과 수행을 할 수 있는 이점이 있다.
According to the present invention, the user's intention is identified through external information and user information of the augmented reality environment, and a virtual character is provided as a medium in a user-oriented communication method to the user according to a process generated to satisfy the identified intention. In addition to providing a friendly interface, the user has the advantage of being able to properly plan and perform a given task.

도 1은 본 발명의 바람직한 실시 예에 따른 증강현실기반의 인터페이스 에이전트 시스템 장치의 전체 구성도
도 2는 본 발명의 바람직한 실시 예에 따른 증강현실 기반의 인터페이스 에이전트 시스템장치의 동작을 설명하는 흐름도
1 is an overall configuration diagram of augmented reality based interface agent system apparatus according to an embodiment of the present invention
2 is a flowchart illustrating an operation of an apparatus for augmented reality based interface agent system according to an exemplary embodiment of the present invention.

이하 본 발명의 증강현실기반의 인터페이스 에이전트 시스템 장치 및 방법의 바람직한 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, exemplary embodiments of an apparatus and method for augmented reality-based interface agent system according to the present invention will be described in detail with reference to the accompanying drawings.

먼저 본 발명을 설명하기에 앞서 인터페이스 에이전트와 증강현실에 관련된 연구 중 핵심적인 연구들을 살펴보기로 한다. First, prior to describing the present invention, the core studies among the studies related to the interface agent and augmented reality will be described.

첫 번째, 'persona project'이다. 상기 프로젝트는 마이크로소프트 연구소에서 진행하였으며, 살아있는 생명체와 같이 동작하는 조수 프로그램 peedy이다. 앵무새 peedy는 PC가 보유한 오디오CD 컬렉션 중에 사용자와 대화를 통하여 음악을 선택하고 재생시켜주는 인터페이스 에이전트 시스템이다. 상기 시스템은 음성을 입력받고 이를 고차원 이벤트로 해석하는 음성언어 프로세싱, 상기 해석된 이벤트를 받아들여 이를 어떻게 캐릭터가 행동하게 할 것인지를 결정하는 다이얼로그 관리부분, 그리고 입력에 대한 반응을 애니메이션 모션 및 peedy의 음성 및 음향효과의 출력 등으로 사용자와 대화하는 비디오와 오디오 출력 부분이다. 이를 통해 peedy는 의인화된 특성을 가지고 사람의 말을 받아들이고 해석하여 사용자에게 상황에 맞게 응답을 시각 및 청각적으로 보여주게 된다. First is the 'persona project'. The project, conducted by Microsoft Research, is a peedy assistant program that works with living things. The parrot peedy is an interface agent system that selects and plays music through conversations with users from the collection of audio CDs held by the PC. The system includes voice language processing that receives voice and interprets it as a high-dimensional event, a dialogue management part that accepts the interpreted event and determines how the character behaves, and responds to the input of animation motion and peedy. It is the video and audio output part that talks to the user with the output of voice and sound effects. Through this, peedy accepts and interprets human words with anthropomorphic traits and shows the user visually and aurally according to the situation.

두 번째, 'Sony Computer Science Lab Project'이다. 이는 컴퓨터와 사람간에 얼굴 표정을 통한 상호작용에 대한 연구이다. Second is the Sony Computer Science Lab Project. This is a study on the interaction of facial expressions between computer and human.

세 번째, 'Shared Space : AR Interface'이다. 이는 증강현실 인터페이스를 통해 실 세계 위에 가상의 객체들을 증강하여 사람들의 이해를 도와 컴퓨터와 사람, 주변환경 사이에 쉽게 상호작용이 가능하도록 하고 있다. Third, 'Shared Space: AR Interface'. It augments virtual objects on the real world through augmented reality interfaces to help people understand and easily interact between computers, people and their surroundings.

다음에는 상기한 연구들에 기초하여 본 발명의 증강현실기반의 인터페이스 에이전트(ARIA : Augmented Reality Interface Agent) 시스템을 설명하기로 한다. Next, the Augmented Reality Interface Agent (ARIA) system of the present invention will be described based on the above studies.

즉, 상기 ARIA 시스템은 증강현실 환경을 기반으로 동작하는 증강된 인터페이스 에이전트를 말한다. 이를 통해 증강현실 환경 내에서 사람과 인터페이스, 소프트웨어의 상호작용을 통하여 작업을 수행할 수 있는바, 구체적인 설명은 다음과 같다. That is, the ARIA system refers to an enhanced interface agent that operates based on an augmented reality environment. Through this, the work can be performed through the interaction of human, interface, and software in the augmented reality environment. Detailed descriptions are as follows.

도 1에는 본 발명의 바람직한 실시 예에 따른 증강현실기반의 인터페이스 에이전트 시스템 장치의 전체 구성도가 도시되어 있다. 1 is a block diagram of an apparatus for augmented reality-based interface agent system according to a preferred embodiment of the present invention.

도 1을 보면, ARIA 시스템은 클라이언트 유닛(100)과 서버 유닛(200)을 포함한다. 1, an ARIA system includes a client unit 100 and a server unit 200.

먼저 클라이언트 유닛(100)이다. 상기 클라이언트 유닛(100)은 사용자가 직접 조작하는 장치로, 예컨대 PDA 및 휴대전화와 같은 이동 기기 등을 말하고, 이를 통해 증강현실 환경을 제공받게 된다. First, the client unit 100. The client unit 100 is a device that a user directly manipulates, for example, a mobile device such as a PDA and a mobile phone, and is provided with an augmented reality environment.

상기 클라이언트 유닛(100)의 구성은 다음과 같다.The configuration of the client unit 100 is as follows.

먼저 주변 환경의 영상을 획득하는 영상획득부(Image Tracker)(102)가 구비된다. First, an image tracker 102 for acquiring an image of a surrounding environment is provided.

상기 영상획득부(102)가 획득한 영상정보를 통해 현재 사용자의 위치 및 방향을 추출하는 추출부(104)가 구비된다. An extraction unit 104 is provided to extract the current user's position and direction through the image information acquired by the image acquisition unit 102.

상기 서버유닛(200)에서 전송받은 정보를 기초로 가상 3D 이미지를 생성하는 이미지 생성부(106)가 구비된다. 상기 정보에는 상기 추출부(104)가 추출한 사용자의 위치 및 방향정보 즉 트래킹 정보와 상기 사용자 정보가 포함된다.An image generator 106 for generating a virtual 3D image based on the information received from the server unit 200 is provided. The information includes the location and direction information of the user extracted by the extraction unit 104, that is, tracking information and the user information.

상기 이미지 생성부(106)가 생성한 정보와 현실의 영상정보를 정합하고 사용자가 볼 수 있게 디스플레이부(110)에 표시하는 정합부(108)가 구비된다. The matching unit 108 is provided to match the information generated by the image generating unit 106 with the actual image information and display it on the display unit 110 for the user to see.

각종 정보의 송수신을 위한 송수신부(120)가 구비된다. 상기 송수신부(120)은 상기 서버유닛(200)과 유무선 통신방식을 이용하여 정보를 송수신한다. Transmitting and receiving unit 120 for transmitting and receiving a variety of information is provided. The transceiver 120 transmits and receives information to and from the server unit 200 using a wired or wireless communication method.

다음 서버 유닛(200)의 구성을 설명한다. Next, the configuration of the server unit 200 will be described.

서버 유닛(200)에는 사용자의 의도를 파악할 수 있도록 한 외부상태모델부(202)와 내부상태모델부(204)가 구성된다. The server unit 200 is configured with an external state model unit 202 and an internal state model unit 204 to grasp the intention of the user.

상기 외부상태모델부(202)는 사용자의 상태를 파악하기 위한 모델이다. 이는 상기 클라이언트 유닛(100)의 추출부(104)가 추출한 정보를 전달받아 파악하는데, 결국 상기 주변환경의 영상을 획득하는 영상획득부(102)로부터 제공된 영상 정보를 기초로 파악한다. The external state model unit 202 is a model for identifying the state of the user. This is determined by receiving the information extracted by the extraction unit 104 of the client unit 100, and finally based on the image information provided from the image acquisition unit 102 to obtain the image of the surrounding environment.

상기 내부상태모델부(204)는 시스템의 상태를 파악하기 위한 것이다. 이는 시스템의 상태뿐만 아니라 사용자의 의도를 충족시키기 위한 작업에 대한 사전지식을 포함하여 파악한다. 이를 위해 상기 내부상태모델(204)은 다수의 서비스 모듈(310)을 포함하는 서비스 소프트웨어(300)와 연결된다. 상기 서비스 소프트웨어(300)는 후술하여 설명한다. The internal state model unit 204 is to determine the state of the system. This includes knowing the state of the system as well as prior knowledge of the tasks to meet the user's intentions. To this end, the internal state model 204 is connected to the service software 300 including a plurality of service modules 310. The service software 300 will be described later.

상기 외부상태모델부(202)과 내부상태모델부(204)을 통해 얻어진 정보를 기초로 하여 현재 상황을 추론하는 추론부(state reasoner)(206)를 구비한다.And an inference unit 206 for inferring a current situation based on the information obtained through the external state model unit 202 and the internal state model unit 204.

상기 추론부(206)에 의해 추론된 현재 상황에 대하여 수행하고자 할 작업에 대한 사전지식을 이용하여 현재 상태에 대한 앞으로의 작업 계획을 생성하는 작업 계획부(action planner)(208)를 구비한다. An action planner 208 is used to generate a future work plan for the current state by using prior knowledge of a task to be performed on the current situation inferred by the inference unit 206.

상기 작업 계획에 의하여 작업을 수행하며 수행된 작업에 대한 상황을 상기 클라이언트유닛(100)으로 전송하는 작업수행부(action perfomer)(210)를 구비한다. 상기 작업수행부(210)는 상기 서비스 소프트웨어(300)의 함수 호출을 통해 작업을 수행한다.An action perfomer 210 for performing a task according to the task plan and transmitting a situation of the performed task to the client unit 100 is provided. The task performing unit 210 performs a task through a function call of the service software 300.

상기 서비스 소프트웨어(300)는 ARIA가 사용자에게 제공하는 다양한 기능이 구현되어 있는 실질적인 응용프로그램을 말한다. 즉 서비스 모듈(310)은 사용자가 다양한 시나리오에 따라 일정 프로세스를 수행함에 있어 이를 효율적으로 수행할 수 있도록 해준다. 따라서, 상기 서비스 소프트웨어(300)는 상기 ARIA와 의사전달은 위한 프로토콜을 제공하고 있으며, 수행할 프로세스를 위하여 다양한 기능들은 상기 ARIA에 등록된다. The service software 300 refers to a practical application program that implements various functions provided by the ARIA to a user. In other words, the service module 310 enables the user to efficiently perform this process in accordance with various scenarios. Accordingly, the service software 300 provides a protocol for communicating with the ARIA, and various functions are registered in the ARIA for the process to be performed.

그와 같은 구성의 증강현실기반의 인터페이스 에이전트 시스템 장치를 이용하여 Using augmented reality-based interface agent system device of such a configuration

도 2는 본 발명의 바람직한 실시 예에 따른 증강현실 기반의 인터페이스 에이전트 시스템장치의 동작을 설명하는 흐름도이다.2 is a flowchart illustrating an operation of an apparatus for augmented reality-based interface agent system according to an exemplary embodiment of the present invention.

먼저, 사용자는 자신의 이동 기기를 ARIA에 접속한다(s100). 상기 이동 기기에는 사용자에 대한 프로필이 저장되어 있어, ARIA와 접속시 상기 ARIA에서 자신에 대한 ID를 할당받는다. 여기서, 이동 기기를 ARIA에 직접 조작하는 것 대신, 소정 장소에 진입하면 자동으로 ARIA에 접속하고 ID를 할당받을 수도 있다. First, a user connects his mobile device to ARIA (s100). The mobile device stores a profile for the user, and is assigned an ID for itself in the ARIA when accessing the ARIA. Here, instead of directly operating the mobile device to the ARIA, the mobile device may be automatically connected to the ARIA and assigned an ID when entering a predetermined place.

일단 이동 기기와 ARIA가 접속되면, 상기 이동 기기는 ARIA와의 의사전달이 가능한 상태가 된다. Once the mobile device and the ARIA are connected, the mobile device is in a state capable of communicating with the ARIA.

사용자는 ARIA와의 의사전달을 위하여 자신이 가지고 있는 이동 기기의 영상 획득부(102), 예컨대 카메라 등을 이용하여 주변 영상이나 전방의 영상을 획득한다(s102). The user acquires the surrounding image or the front image by using the image acquisition unit 102 of the mobile device he has, for example, a camera, for communication with the ARIA (S102).

상기 영상 획득부(102)에 의해 획득된 영상은 추출부(104)로 전달된다. The image acquired by the image acquisition unit 102 is transferred to the extraction unit 104.

상기 추출부(104)는 상기 영상획득부(102)가 획득한 영상정보를 통해 현재 사용자의 위치 및 방향을 추출한다(s104). 참고로 상기 사용자의 위치 및 방향 정보를 추출하기 위해서 상기 이동 기기에는 각 지역에 대한 좌표나 지도, 방향 정보 등을 알 수 있는 정보가 저장되어 있다. The extraction unit 104 extracts the current user's position and direction through the image information acquired by the image acquisition unit 102 (S104). For reference, in order to extract the location and direction information of the user, the mobile device stores information for knowing coordinates, maps, direction information, etc. for each region.

상기 추출부(104)는 상기 추출한 사용자의 위치 및 방향 정보를 송수신부(120)를 통해 상기 서버유닛(200)의 외부상태모델부(202)로 전달한다(s106). The extraction unit 104 transmits the extracted location and direction information of the user to the external state model unit 202 of the server unit 200 through the transmission and reception unit 120 (s106).

상기 서버유닛(200)은 상기 송수신부(120)를 통해 외부상태모델부(202)가 전달받은 정보를 기초로 하여 사용자에 대한 외부상태를 파악한다. 아울러, 상기 서버유닛(200)의 내부상태모델부(204)는 사용자 정보를 추론하여 사용자의 의도를 파악한다(s108). The server unit 200 determines the external state for the user based on the information transmitted from the external state model unit 202 through the transceiver 120. In addition, the internal state model unit 204 of the server unit 200 infers the user information to determine the user's intention (s108).

상기 외부상태모델부(202)와 내부상태모델부(204)에 의해 파악된 모든 정보는 상기 추론부(206)로 전달된다. 이를 통해 상기 추론부(206)는 사용자가 위치하고 있는 장소 및 사용자가 하고자 하는 작업 등에 대한 현재 상황을 추론할 수 있다(s110). All information grasped by the external state model unit 202 and the internal state model unit 204 is transmitted to the inference unit 206. In this manner, the inference unit 206 may infer a current situation regarding a place where the user is located and a task that the user wants to perform (S110).

일단, 상기 추론부(206)가 현재 상황을 추론하면, 그 추론된 정보는 작업 계획부(208)로 전달된다. 여기서는 상기 추론부(206)에 의해 추론된 현재 상황에 대하여 수행하고자 할 작업에 대한 사전지식을 이용하여 현재 상태에 대한 앞으로의 작업 계획을 생성하게 된다(s112). Once the inference unit 206 infers the current situation, the inferred information is transferred to the job planning unit 208. Here, a future work plan for the current state is generated by using prior knowledge about a task to be performed on the current situation inferred by the inference unit 206 (S112).

상기 작업계획부(action planner)(208)가 생성된 작업 계획은 작업수행부(210)로 전달된다. The action plan in which the action planner 208 is generated is transmitted to the action execution unit 210.

상기 작업수행부(210)는 서비스 소프트웨어(300)의 함수 호출을 통해 수행하고자 할 작업에 대응하는 서비스 모듈(310)을 호출하여 프로세스를 생성한다(s114).The task execution unit 210 generates a process by calling the service module 310 corresponding to the task to be performed through a function call of the service software 300 (s114).

상기 프로세스는 클라이언트 유닛(100)으로 전달한다(s116). The process transfers to the client unit 100 (s116).

상기 클라이언트 유닛(100)의 이미지 생성부(106)는 상기 작업수행부(210)에서 전달받은 정보를 근거로 가상 3D 이미지로 생성한다(s118). The image generating unit 106 of the client unit 100 generates a virtual 3D image based on the information received from the work performing unit 210 (S118).

상기 생성된 3D 이미지는 정합부(108)로 전달된다. 상기 정합부(108)는 상기 이미지 생성부(106)가 생성한 정보와 상기 영상 획득부(102)가 획득한 현실 영상 정보를 정합하고(s120), 이를 사용자가 볼 수 있게 디스플레이부(110)에 표시한다(s122).The generated 3D image is transferred to the matching unit 108. The matching unit 108 matches the information generated by the image generating unit 106 with the actual image information acquired by the image obtaining unit 102 (s120), and displays the display unit 110 so that the user can view it. (S122).

상기 디스플레이부(110)에 표시되는 정보는 사용자 의도에 따라 사용자가 수행하고자 할 프로세스에 대하여 사용자에게 제공될 정보이다. 이는 3D 가상 캐릭터를 통해 제공된다. The information displayed on the display 110 is information to be provided to the user with respect to a process to be performed by the user according to the user's intention. This is provided through 3D virtual characters.

상기한 바와 같은 사용자가 수행할 프로세스에 대해 예를 들어 설명하기로 한다. A process to be performed by the user as described above will be described by way of example.

사용자가 자신이 소유한 이동 기기(즉 클라이언트 유닛)(100)를 가지고 건물내로 들어가면, 상기 클라이언트 유닛(100)은 ARIA 시스템의 서버 유닛(200)에 자동 접속되고, 이동 기기에 대한 ID를 할당받는다. 접속이 완료되면 상기 클라이언트 유닛(100)은 상기 서버유닛(200)이 제공한 환영 메시지와 가상 캐릭터가 등장하여 사용자의 목적에 따른 진행 프로세스를 제공한다. When a user enters a building with a mobile device (i.e., client unit) 100 owned by the user, the client unit 100 is automatically connected to the server unit 200 of the ARIA system and assigned an ID for the mobile device. . When the connection is complete, the client unit 100 provides a welcome message and a virtual character provided by the server unit 200 to provide a progress process according to a user's purpose.

상기 진행 프로세스에 따라 상기 서버 유닛(200)은 상술한 바 있는 상기 클라이언트 유닛(100)의 동작에 따라 전달받은 사용자의 상태, 위치 정보 및 사용자 정보를 기초로 하여 사용자의 의도를 추론한다. 이때 사용자가 서버 유닛(200)과의 대화를 통하여 자신이 건물을 방문한 목적을 제공할 수 있다. According to the progress process, the server unit 200 infers the intention of the user based on the state, location information, and user information of the user received according to the operation of the client unit 100 as described above. In this case, the user may provide the purpose of visiting the building through the conversation with the server unit 200.

상기 서버 유닛(200)은 사용자의 방문 목적에 따라 소정 시나리오에 따라 정보를 3D 가상 캐릭터를 통해 제공한다. The server unit 200 provides the information through the 3D virtual character according to a predetermined scenario according to the purpose of the visit of the user.

즉 사용자가 건물에 상주하는 직원이면, 상기 서버유닛(200)은 출입, 일정, 우편관리 소프트웨어를 활용하여 사용자의 출/퇴근 정보를 기록하고 당일 회의 스케줄이나 우편물 등에 대한 정보를 상기 클라이언트 유닛(100)을 통해 제공한다.In other words, if the user is an employee residing in the building, the server unit 200 records access / commute information of the user by using access, schedule, and postal management software, and the client unit 100 records information about a meeting schedule or mail of the day. Provide through.

반면, 외부 방문자인 경우 회의 참석자이면 일정, 회의실 관리 소프트웨어를 이용하여 방문자를 회의실로 인도하고 회의 참석자들을 호출하는 정보를 상기 클라이언트 유닛(100)을 통해 제공한다.On the other hand, if the external visitor is a meeting attendee, the client unit 100 provides information for guiding the visitor to the meeting room and calling the meeting attendees using a schedule and conference room management software.

또한, 기타 이용자일 경우에는 건물내의 편의시설에 대한 정보만을 제공하고, 방문자가 허용되지 않은 공간에 존재하면 보안관리 소프트웨어를 이용하여 경보를 발명하는 기능을 제공한다. In addition, in case of other users, it provides only information on convenience facilities in the building, and provides a function of inventing an alarm using security management software when the visitor is present in an unacceptable space.

이상에서 설명한 바와 같이 본 발명은 사용자의 의도를 추론한 다음 가상 캐릭터를 통해 사용자의 목적에 따른 진행 프로세스를 제공하고 있어, 사용자의 실시간 상황에 따른 프로세서를 적절하게 진행할 수 있다. As described above, the present invention infers the intention of the user and then provides a progress process according to the user's purpose through the virtual character, so that the processor according to the real-time situation of the user can be properly progressed.

본 발명의 권리범위는 위에서 설명된 실시 예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 기술분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
The scope of the present invention is not limited to the embodiments described above, but is defined by the claims, and various changes and modifications can be made by those skilled in the art within the scope of the claims. It is self evident.

100 : 클라이언트 유닛 102 : 영상획득부
104 : 추출부 106 : 이미지 생성부
108 : 정합부 200 : 서버 유닛
202 : 외부상태모델부 204 : 내부상태모델부
206 : 추론부 208 : 작업계획부
210 : 작업수행부 300 : 서비스 소프트웨어
100: client unit 102: image acquisition unit
104: extraction unit 106: image generation unit
108: matching unit 200: server unit
202: external state model unit 204: internal state model unit
206: Reasoning Department 208: Work Planning Department
210: work performing unit 300: service software

Claims (5)

사용자 정보 및 트래킹 정보에 기초하여 현실 영상과 가상 3D 이미지를 정합하여 출력하는 클라이언트유닛;
사용자가 의도한 상황을 추론하여 상기 클라이언트 유닛에게 전달하는 서버유닛; 그리고
상기 서버유닛의 요청에 의하여 상기 추론된 상황에 따라 적절한 작업을 수행할 수 있도록 다양한 기능별 모듈을 제공하는 서비스 소프트웨어를 포함하여 구성되는 증강현실기반의 인터페이스 에이전트 시스템 장치.
A client unit for matching and outputting a real image and a virtual 3D image based on user information and tracking information;
A server unit inferring a situation intended by a user and delivering the same to the client unit; And
Augmented reality-based interface agent system device comprising a service software that provides a variety of functional modules to perform a proper operation according to the inferred situation at the request of the server unit.
제 1항에 있어서, 상기 클라이언트 유닛은,
주변 환경의 영상을 획득하는 영상획득부,
상기 영상획득부가 획득한 영상정보를 통해 현재 사용자의 위치 및 방향을 추출하는 추출부,
상기 추출부에 의해 추출된 정보에 따라 상기 서버유닛에서 전송받은 정보를 기초로 가상 3D 이미지로 생성하는 이미지 생성부,
상기 이미지 생성부가 생성한 정보와 현실 영상 정보를 하나의 정보로 표시되게 정합하는 정합부를 포함하여 구성되는 것을 특징으로 하는 증강현실기반의 인터페이스 에이전트 시스템 장치.
The method of claim 1, wherein the client unit,
Image acquisition unit for obtaining an image of the surrounding environment,
Extraction unit for extracting the current position and direction of the user through the image information obtained by the image acquisition unit,
An image generator for generating a virtual 3D image based on the information received from the server unit according to the information extracted by the extractor;
Augmented reality-based interface agent system device characterized in that it comprises a matching unit for matching the information generated by the image generating unit and the real image information to be displayed as one information.
제 1항에 있어서, 상기 서버 유닛은,
상기 영상획득부에서 제공한 영상정보를 이용하여 사용자의 위치 및 방향을 파악하는 외부상태모델부,
상기 서비스 소프트웨어에 의하여 상기 사용자의 의도를 파악하는 내부상태모델부,
상기 외부상태모델부에 의한 사용자의 위치 및 방향과 상기 내부상태모델부를 통해 상기 사용자의 의도를 추론하는 추론부,
상기 추론부에 의해 추론된 현재 상황에 대하여 작업 계획을 생성하는 작업 계획부,
상기 작업 계획에 의하여 상기 서비스 소프트웨어의 함수 호출을 통해 작업을 수행하고, 상기 수행된 작업을 가상 3D 이미지로 생성하도록 상기 이미지 생성부로 전달하는 작업 수행부를 포함하여 구성하는 것을 특징으로 하는 증강현실기반의 인터페이스 에이전트 시스템 장치.
The method of claim 1, wherein the server unit,
An external state model unit which grasps the position and direction of the user using the image information provided by the image acquisition unit;
An internal state model unit which grasps the intention of the user by the service software;
An inference unit for inferring the position and direction of the user by the external state model unit and the intention of the user through the internal state model unit;
A job planning unit for generating a job plan with respect to the current situation inferred by the reasoning unit;
A task execution unit configured to perform a task by calling a function of the service software according to the task plan, and to transmit the performed task to the image generator to generate a virtual 3D image. Interface agent system device.
제 2항에 있어서,
상기 클라이언트 유닛은, 영상정보를 촬영할 수 있도록 카메라가 탑재된 휴대용 기기임을 특징으로 하는 증강현실기반의 인터페이스 에이전트 시스템 장치.
The method of claim 2,
The client unit is augmented reality-based interface agent system device, characterized in that the portable device equipped with a camera to capture the image information.
클라이언트 유닛이 영상 획득을 통해 사용자의 위치 및 방향을 추출하는 단계;
서버 유닛이 상기 추출된 사용자의 위치 및 방향과 작업에 대한 사전지식을 기초로 하여 현재 상황을 추론하는 단계;
상기 서버 유닛이 상기 추론된 현재 상황에 따라 생성된 작업계획을 서비스 소프트웨어의 함수호출에 의하여 수행함과 동시에 수행중인 작업에 대한 상황을 상기 클라이언트유닛으로 전송하는 단계; 그리고
상기 클라이언트 유닛이 상기 수행중인 작업에 대한 정보를 이용하여 가상 3D 이미지를 생성하고, 현실 영상정보와 통합하여 사용자에게 제공하는 단계를 포함하여 구성되는 증강현실기반의 인터페이스 에이전트 방법.
Extracting, by the client unit, the position and the direction of the user through image acquisition;
Deriving, by the server unit, the current situation based on the extracted position and direction of the user and prior knowledge of the task;
Executing, by the server unit, a work plan generated according to the inferred current situation by a function call of service software, and simultaneously transmitting a situation about the work being performed to the client unit; And
And generating, by the client unit, the virtual 3D image by using the information on the work being performed, and providing the user by integrating the virtual 3D image with the real image information.
KR1020100060800A 2010-06-25 2010-06-25 Apparatus and Method for Augmented Reality Interface Agent KR101135753B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100060800A KR101135753B1 (en) 2010-06-25 2010-06-25 Apparatus and Method for Augmented Reality Interface Agent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100060800A KR101135753B1 (en) 2010-06-25 2010-06-25 Apparatus and Method for Augmented Reality Interface Agent

Publications (2)

Publication Number Publication Date
KR20120000437A true KR20120000437A (en) 2012-01-02
KR101135753B1 KR101135753B1 (en) 2012-04-16

Family

ID=45608319

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100060800A KR101135753B1 (en) 2010-06-25 2010-06-25 Apparatus and Method for Augmented Reality Interface Agent

Country Status (1)

Country Link
KR (1) KR101135753B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134030A (en) * 2018-05-24 2019-12-04 주식회사 이누씨 Method And Apparatus Creating for Avatar by using Multi-view Image Matching
WO2020017668A1 (en) * 2018-07-16 2020-01-23 주식회사 이누씨 Method and apparatus for generating avatar by using multi-view image matching

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100757906B1 (en) * 2004-11-26 2007-09-11 한국전자통신연구원 Robot system based on network and execution method of that system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134030A (en) * 2018-05-24 2019-12-04 주식회사 이누씨 Method And Apparatus Creating for Avatar by using Multi-view Image Matching
WO2020017668A1 (en) * 2018-07-16 2020-01-23 주식회사 이누씨 Method and apparatus for generating avatar by using multi-view image matching

Also Published As

Publication number Publication date
KR101135753B1 (en) 2012-04-16

Similar Documents

Publication Publication Date Title
US11127210B2 (en) Touch and social cues as inputs into a computer
EP3457253B1 (en) Collaboration methods to improve use of 3d models in mixed reality environments
JP5101737B2 (en) Apparatus and method for interworking between virtual reality services
WO2017129148A1 (en) Method and devices used for implementing augmented reality interaction and displaying
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
WO2022227408A1 (en) Virtual reality interaction method, device and system
EP3549046B1 (en) Gesture-based access control in virtual environments
JP2009259199A (en) Method, system and program for interacting with avatar relating to user in computer virtual environment
CN111338481B (en) Data interaction system and method based on whole body dynamic capture
KR20200097637A (en) Simulation sandbox system
JP6888854B1 (en) Remote work support system and remote work support method
WO2019155735A1 (en) Information processing device, information processing method, and program
US20200413009A1 (en) Bidirectional video communication system and kiosk terminal
KR101135753B1 (en) Apparatus and Method for Augmented Reality Interface Agent
JP2020136921A (en) Video call system and computer program
JP2002120184A (en) Robot operation control system on network
CN111178305A (en) Information display method and head-mounted electronic equipment
CN110955331A (en) Human-computer interaction system based on computer virtual interface
CN116128468A (en) Management platform, data processing method, electronic device and storage medium
JP7102859B2 (en) Video Conference Systems, Video Conference Methods, and Programs
CN113542257A (en) Video processing method, video processing apparatus, electronic device, and storage medium
JP2022103906A (en) Information processing system and information processing method
US20190051308A1 (en) Information processing device, information processing method, and program
KR102428438B1 (en) Method and system for multilateral remote collaboration based on real-time coordinate sharing
JP2024025135A (en) Response support device, response support method, and response support program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee