KR102156175B1 - Interfacing device of providing user interface expoliting multi-modality and mehod thereof - Google Patents

Interfacing device of providing user interface expoliting multi-modality and mehod thereof Download PDF

Info

Publication number
KR102156175B1
KR102156175B1 KR1020130067516A KR20130067516A KR102156175B1 KR 102156175 B1 KR102156175 B1 KR 102156175B1 KR 1020130067516 A KR1020130067516 A KR 1020130067516A KR 20130067516 A KR20130067516 A KR 20130067516A KR 102156175 B1 KR102156175 B1 KR 102156175B1
Authority
KR
South Korea
Prior art keywords
user
scene
parameter
modality
interfacing
Prior art date
Application number
KR1020130067516A
Other languages
Korean (ko)
Other versions
KR20140045865A (en
Inventor
한재준
한승주
박두식
최창규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/046,017 priority Critical patent/US10133470B2/en
Publication of KR20140045865A publication Critical patent/KR20140045865A/en
Application granted granted Critical
Publication of KR102156175B1 publication Critical patent/KR102156175B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치가 개시된다. 일 실시예는 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식하고, 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성한다.Disclosed is an interfacing device that provides a user interface utilizing multi-modality. An embodiment recognizes at least two modality inputs for controlling a scene, and generates scene control information based on the at least two modality inputs.

Description

멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치 및 그 장치를 이용한 방법{INTERFACING DEVICE OF PROVIDING USER INTERFACE EXPOLITING MULTI-MODALITY AND MEHOD THEREOF}An interfacing device that provides a user interface utilizing multi-modality, and a method using the device {INTERFACING DEVICE OF PROVIDING USER INTERFACE EXPOLITING MULTI-MODALITY AND MEHOD THEREOF}

아래 실시예들은 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치 및 그 장치를 이용한 방법에 관한 것이다.
The following embodiments relate to an interfacing device that provides a user interface utilizing multi-modality and a method using the device.

휴먼 센싱 기술(human sensing technology)는 직관적인 유저 인터페이스를 제공할 수 있다. 이러한 휴먼 센싱 기술은 다양한 가전제품들에 적용되고 있다.Human sensing technology can provide an intuitive user interface. Such human sensing technology is being applied to various home appliances.

일반적으로, 휴먼 센싱 기술은 가전제품의 조작을 수행하기 위해 미리 결정된 특정 동작의 검출되었을 때, 검출된 동작에 해당되는 액션을 수행하도록 구현된다.
In general, the human sensing technology is implemented to perform an action corresponding to the detected motion when a predetermined specific motion is detected in order to manipulate the home appliance.

일 측에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치는 신(scene)과 관련된 정보를 포함하는 신 파라미터(scene parameter)를 획득하는 신 파라미터 획득부; 상기 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식하는 멀티 모달리티 인식부; 및 상기 신 파라미터 및 상기 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보(scene control information)를 생성하는 신 제어 정보 생성부를 포함한다.An interfacing device that provides a user interface utilizing multi-modality according to one side includes: a scene parameter acquisition unit acquiring a scene parameter including information related to a scene; A multi-modality recognition unit for recognizing at least two modality inputs for controlling the scene; And a scene control information generator that generates scene control information based on the scene parameter and the at least two modality inputs.

이 때, 상기 인터페이싱 장치는 이용자 맞춤 파라미터(user customization parameter)를 획득하는 이용자 맞춤 파라미터 획득부를 더 포함하고, 상기 신 제어 정보 생성부는 상기 이용자 맞춤 파라미터에 기초하여 상기 적어도 두 개의 모달리티 입력들의 조합을 해석하는 해석부를 포함할 수 있다.In this case, the interfacing device further includes a user customization parameter obtaining unit that obtains a user customization parameter, and the new control information generation unit analyzes a combination of the at least two modality inputs based on the user customization parameter. It may include an analysis unit.

여기서, 상기 이용자 맞춤 파라미터는 특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들 각각을 상기 특정 이용자의 선호도에 따라 복수의 모달리티 입력들 중 어느 하나 또는 상기 복수의 모달리티 입력들로부터 선택 가능한 둘 이상의 조합으로 매핑하는 매핑 정보를 포함할 수 있다.Here, the user-customized parameter corresponds to a specific user, and selects each of a plurality of predetermined control aspects of the scene from one of a plurality of modality inputs or two or more modality inputs according to the preference of the specific user. Mapping information that maps in combination may be included.

또한, 상기 인터페이싱 장치는 이용자를 식별하는 이용자 식별부를 더 포함하고, 상기 이용자 맞춤 파라미터 획득부는 상기 식별된 이용자에 대응되는 이용자 맞춤 파라미터를 획득할 수 있다.In addition, the interfacing device may further include a user identification unit for identifying a user, and the user customized parameter obtaining unit may obtain a user customized parameter corresponding to the identified user.

다른 일 측에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법은 신과 관련된 정보를 포함하는 신 파라미터를 획득하는 단계; 상기 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식하는 단계; 및 상기 신 파라미터 및 상기 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성하는 단계를 포함한다.
The interfacing method for providing a user interface utilizing multi-modality according to the other side includes: obtaining a scene parameter including information related to a scene; Recognizing at least two modality inputs for controlling the scene; And generating scene control information based on the scene parameter and the at least two modality inputs.

도 1은 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치를 나타낸 블록도.
도 2a 내지 도 2c는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 설명하기 위한 도면.
도 3a 내지 도 3b는 일 실시예에 따른 이용자 맞춤 파라미터를 이용하는 인터페이싱 장치를 나타낸 블록도.
도 4는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 시스템을 설명하기 위한 도면.
도 5는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법을 나타낸 동작 흐름도.
1 is a block diagram illustrating an interfacing device providing a user interface utilizing multi-modality according to an embodiment.
2A to 2C are views for explaining a user interface utilizing multi-modality according to an embodiment.
3A to 3B are block diagrams illustrating an interfacing device using a user-customized parameter according to an embodiment.
4 is a view for explaining an interfacing system that provides a user interface utilizing multi-modality according to an embodiment.
5 is a flowchart illustrating an interfacing method for providing a user interface utilizing multi-modality according to an embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치를 나타낸 블록도이다.1 is a block diagram illustrating an interfacing device that provides a user interface utilizing multi-modality according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 인터페이싱 장치(100)는 멀티 모달리티(multi modalities)를 활용하여 유저 인터페이스(user interface, UI)를 제공한다.Referring to FIG. 1, an interfacing device 100 according to an embodiment provides a user interface (UI) using multi modalities.

여기서, 모달리티(modality)는 시각 또는 청각과 같은 1차 감각 양상으로, 멀티 모달리티는 적어도 두 개의 서로 다른 유형의 모달리티들의 조합을 이용하는 기법이다.Here, modality is a primary sensory aspect such as sight or hearing, and multi-modality is a technique using a combination of at least two different types of modalities.

일 실시예에 따른 인터페이싱 장치(100)는 신 파라미터(scene parameter) 획득부(110), 멀티 모달리티 인식부(120), 및 신 제어 정보(scene control information) 생성부를 포함할 수 있다.The interfacing apparatus 100 according to an embodiment may include a scene parameter acquisition unit 110, a multi-modality recognition unit 120, and a scene control information generation unit.

신 파라미터 획득부(110)는 신 파라미터를 획득할 수 있다. 여기서, 신(scene)은 신 표현 장치(150)에 의하여 이용자에게 제공되는 멀티미디어 컨텐츠로, 평면 영상, 입체 영상, 음향 등을 포괄적으로 포함할 수 있다.The new parameter acquisition unit 110 may acquire a new parameter. Here, the scene is multimedia content provided to the user by the scene expression device 150 and may comprehensively include a flat image, a stereoscopic image, and sound.

신 파라미터는 신(scene)과 관련된 정보를 포함하고, 특히 이용자와 인터액션(interaction)할 수 있는 신의 특성과 관련된 정보를 포함할 수 있다. The scene parameter may include information related to a scene, and in particular, may include information related to a characteristic of a scene capable of interacting with a user.

예를 들어, 신 파라미터는 신에 포함된 적어도 하나의 객체(object)의 크기와 관련된 파라미터 또는 해당 객체의 위치와 관련된 파라미터를 포함할 수 있다. 이러한 적어도 하나의 객체 각각은 인터페이싱 장치(100)에 의해 제공되는 유저 인터페이스를 통해 제어될 수 있다.For example, the scene parameter may include a parameter related to the size of at least one object included in the scene or a parameter related to the location of the corresponding object. Each of these at least one object may be controlled through a user interface provided by the interfacing device 100.

또한, 신 파라미터는 해당 객체의 이동 제어와 관련된 파라미터, 해당 객체의 회전 제어와 관련된 파라미터, 또는 해당 객체의 스케일 제어와 관련된 파라미터를 포함할 수 있다. 예를 들어, 신 파라미터는 해당 객체가 이용자의 입력에 따라 이동될 수 있는 것인지 여부, 회전될 수 있는 것인지 여부, 또는 확대되거나 축소될 수 있는 것인지 여부를 지시하는 정보를 포함할 수 있다.In addition, the new parameter may include a parameter related to movement control of a corresponding object, a parameter related to rotation control of a corresponding object, or a parameter related to scale control of the corresponding object. For example, the scene parameter may include information indicating whether the object can be moved, whether it can be rotated, or whether it can be enlarged or reduced according to a user's input.

또한, 신 파라미터는 신의 시점과 관련된 파라미터를 포함할 수 있다. 예를 들어, 신 파라미터는 현재 보여지고 있는 신의 시점과 관련된 정보, 신의 시점이 변경될 수 있는 것인지 여부에 대한 정보, 또는 변경 가능한 신의 시점 리스트 등을 포함할 수 있다.Also, the scene parameter may include a parameter related to the viewpoint of the scene. For example, the scene parameter may include information related to the viewpoint of the currently displayed scene, information on whether the viewpoint of the scene can be changed, or a list of viewpoints of the scene that can be changed.

멀티 모달리티 인식부(120)는 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식할 수 있다.The multi-modality recognition unit 120 may recognize at least two modality inputs for controlling a scene.

도면에 표시하지 않았으나, 멀티 모달리티 인식부(120)는 센서로부터 센서 데이터를 수신하고, 수신된 센서 데이터에 기초하여 적어도 두 개의 모달리티 입력들을 인식할 수 있다. 여기서, 센서는 오브젝트를 촬영하는 이미지 센서, 오브젝트까지의 거리를 측정하는 깊이 센서, 또는 음성 데이터를 획득하는 마이크 등을 포함할 수 있다.Although not shown in the drawing, the multi-modality recognition unit 120 may receive sensor data from a sensor and recognize at least two modality inputs based on the received sensor data. Here, the sensor may include an image sensor that photographs an object, a depth sensor that measures a distance to the object, or a microphone that acquires voice data.

멀티 모달리티 인식부(120)는 수신된 센서 데이터를 이용하여 멀티 모달리티 입력을 인식하기 위한 알고리즘을 수행할 수 있다. 일 실시예에 따르면, 멀티 모달리티 인식부(120)는 해당 알고리즘이 기술된 프로그램이 수행되는 프로세서, 또는 해당 알고리즘을 수행하기 위한 모듈들로 구성된 SoC(System on Chip) 등으로 구현될 수 있다.The multi-modality recognition unit 120 may perform an algorithm for recognizing a multi-modality input by using the received sensor data. According to an embodiment, the multi-modality recognition unit 120 may be implemented as a processor on which a program in which a corresponding algorithm is described is executed, or a System on Chip (SoC) composed of modules for performing the algorithm.

멀티 모달리티 인식부(120)는 시선 인식부(121), 손가락 끝 인식부(122), 손 자세 인식부(123), 손 동작 인식부(124), 또는 음성 인식부(125) 중 적어도 하나를 포함할 수 있다.The multi-modality recognition unit 120 includes at least one of the gaze recognition unit 121, the fingertip recognition unit 122, the hand posture recognition unit 123, the hand motion recognition unit 124, or the voice recognition unit 125. Can include.

여기서, 시선 인식부(121)는 이용자의 시선을 인식할 수 있다. 경우에 따라, 시선 인식부(121)는 이용자의 시선 방향 또는 신 내에서 이용자의 시선이 향하는 위치 등을 인식할 수 있다. 시선 인식부(121)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 시선을 인식할 수 있다. 또한, 시선 인식부(121)는 이용자의 눈의 위치나 이용자의 눈의 오리엔테이션 등을 감지할 수 있다. 이 때, 시선 인식부(121)는 인터페이싱 장치(100)를 기준으로 하는 상대 좌표 또는 이용자가 위치하는 3차원 공간을 나타내는 절대 좌표를 이용할 수 있다.Here, the gaze recognition unit 121 may recognize the gaze of the user. In some cases, the gaze recognition unit 121 may recognize the direction of the user's gaze or a position in the scene where the gaze of the user is directed. The gaze recognition unit 121 may recognize a user's gaze by processing image data received from an image sensor or depth data received from a depth sensor. In addition, the gaze recognition unit 121 may detect the user's eye position or the user's eye orientation. In this case, the gaze recognition unit 121 may use relative coordinates based on the interfacing device 100 or absolute coordinates indicating a three-dimensional space in which the user is located.

손가락 끝 인식부(122)는 이용자의 손가락 끝을 인식할 수 있다. 마찬가지로, 손가락 끝 인식부(122)는 이용자의 손가락 끝이 가리키는 방향 또는 신 내에서 이용자의 손가락 끝이 가리키는 위치 등을 인식할 수 있다. 손가락 끝 인식부(122)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 손가락 끝을 인식할 수 있다. 또한, 손가락 끝 인식부(122)는 이용자의 양 손의 위치들 및 열 손가락 끝의 위치들을 감지할 수 있다. 이 때, 손가락 끝 인식부(122)는 인터페이싱 장치(100)를 기준으로 하는 상대 좌표 또는 이용자가 위치하는 3차원 공간을 나타내는 절대 좌표를 이용할 수 있다.The fingertip recognition unit 122 may recognize the user's fingertip. Likewise, the fingertip recognition unit 122 may recognize a direction indicated by the user's fingertip or a position indicated by the user's fingertip within a scene. The fingertip recognition unit 122 may recognize the user's fingertip by processing image data received from the image sensor or depth data received from the depth sensor. In addition, the fingertip recognition unit 122 may detect the positions of both hands of the user and the positions of ten fingertips. In this case, the fingertip recognition unit 122 may use relative coordinates based on the interfacing device 100 or absolute coordinates indicating a three-dimensional space in which the user is located.

손 자세 인식부(123)는 이용자의 손 자세를 인식할 수 있다. 예를 들어, 손 자세 인식부(123)는 이용자의 손이 가위 자세, 바위 자세, 또는 보 자세를 취하고 있는지 여부를 인식할 수 있다. 손 자세 인식부(123)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 손 자세를 인식할 수 있다. 또는, 손 자세 인식부(123)는 이용자의 손이 집게 손가락만 펴고 포인팅하기 위한 자세를 취하고 있는지 여부, 엄지 손가락과 집게 손가락을 이용하여 펜을 쥐고 있는 듯한 자세를 취하고 있는지 여부 등을 인식할 수 있다. The hand posture recognition unit 123 may recognize the user's hand posture. For example, the hand posture recognition unit 123 may recognize whether the user's hand is in the scissors posture, rock posture, or paper posture. The hand posture recognition unit 123 may recognize the user's hand posture by processing image data received from the image sensor or depth data received from the depth sensor. Alternatively, the hand posture recognition unit 123 can recognize whether the user's hand is in a posture for pointing with only the index finger open, and whether the user's hand is in a posture as if holding a pen using the thumb and forefinger. have.

이 때, 손 자세 인식부(123)는 미리 구비된 손 자세 데이터베이스를 이용하여 이용자의 손 자세를 인식할 수 있다. 예를 들어, 손 자세 인식부(123)는 손 자세 데이터베이스에 저장된 복수의 손 자세들 중 감지된 이용자의 손 자세와 가장 유사한 손 자세를 선택함으로써, 이용자의 손 자세를 인식할 수 있다. 이 경우, 손 자세 인식부(123)는 선택된 손 자세의 타입을 출력할 수 있다.In this case, the hand posture recognition unit 123 may recognize the user's hand posture using a hand posture database provided in advance. For example, the hand posture recognition unit 123 may recognize the user's hand posture by selecting a hand posture that is most similar to the detected hand posture from among a plurality of hand postures stored in the hand posture database. In this case, the hand posture recognition unit 123 may output the selected hand posture type.

손 동작 인식부(124)는 이용자의 손 동작을 인식할 수 있다. 예를 들어, 손 동작 인식부(124)는 이용자의 손의 움직임 패턴을 인식할 수 있다. 경우에 따라, 손 동작 인식부(124)는 이용자의 손이 손목을 축으로 회전하는 움직임, 이용자의 손이 3차원 공간 상 특정 점을 기준으로 원 운동하는 움직임, 이용자의 손이 3차원 공간에서 이동하는 움직임 등을 인식할 수 있다. 손 동작 인식부(124)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 손 동작을 인식할 수 있다.The hand motion recognition unit 124 may recognize a user's hand motion. For example, the hand motion recognition unit 124 may recognize a user's hand motion pattern. In some cases, the hand motion recognition unit 124 may perform a motion in which the user's hand rotates around the wrist, a motion in which the user's hand makes a circular motion based on a specific point in the three-dimensional space, and the user's hand in a three-dimensional space. You can recognize moving movements, etc. The hand motion recognition unit 124 may recognize a user's hand motion by processing image data received from the image sensor or depth data received from the depth sensor.

이 때, 손 동작 인식부(124)는 미리 구비된 손 동작 데이터베이스를 이용하여 이용자의 손 동작을 인식할 수 있다. 예를 들어, 손 동작 인식부(124)는 손 동작 데이터베이스에 저장된 복수의 손 동작들 중 감지된 이용자의 손 동작과 가장 유사한 손 동작을 선택함으로써, 이용자의 손 동작을 인식할 수 있다. 이 경우, 손 동작 인식부(124)는 선택된 손 동작의 타입을 출력할 수 있다.In this case, the hand motion recognition unit 124 may recognize a user's hand motion using a hand motion database provided in advance. For example, the hand motion recognition unit 124 may recognize the user's hand motion by selecting a hand motion most similar to the detected user's hand motion among a plurality of hand motions stored in the hand motion database. In this case, the hand motion recognition unit 124 may output the selected hand motion type.

음성 인식부(125)는 이용자의 음성을 인식할 수 있다. 이 경우, 음성 인식부(125)는 이용자의 음성을 인식하고, 인식된 내용을 텍스트 스트링의 형태로 출력할 수 있다. 음성 인식부(125)는 마이크로부터 수신된 음성 데이터를 처리함으로써, 이용자의 음성을 인식할 수 있다.The voice recognition unit 125 may recognize a user's voice. In this case, the voice recognition unit 125 may recognize the user's voice and output the recognized content in the form of a text string. The voice recognition unit 125 may recognize the user's voice by processing voice data received from the microphone.

신 제어 정보 생성부(130)는 신 파라미터 획득부(110)에 의해 획득된 신 파라미터 및 멀티 모달리티 인식부(120)에 의해 인식된 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성할 수 있다.The scene control information generation unit 130 may generate scene control information based on a scene parameter obtained by the scene parameter acquisition unit 110 and at least two modality inputs recognized by the multi-modality recognition unit 120. have.

여기서, 신 제어 정보는 신에 특화된 제어 명령으로, 신에 포함된 객체 또는 신 자체의 시점 등을 제어하기 위한 정보를 포함할 수 있다.Here, the scene control information is a control command specific to a scene, and may include information for controlling an object included in the scene or a viewpoint of the scene itself.

예를 들어, 신 제어 정보는 신 내 특정 위치와 관련된 정보를 포함하는 위치 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 위치 요소를 이용하여, 이용자에 의해 제어되는 대상 객체를 특정할 수 있다. 경우에 따라, 위치 요소는 3차원 좌표 또는 2차원 좌표 등으로 표현될 수 있다.For example, the scene control information may include a location element including information related to a specific location in the scene. The scene expression device 150 may specify a target object controlled by the user by using the location element included in the scene control information. In some cases, the location element may be expressed in 3D coordinates or 2D coordinates.

또한, 신 제어 정보는 위치 요소가 가리키는 특정 위치에 위치하는 객체의 변형과 관련된 정보를 포함하는 변형 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 변형 요소를 이용하여, 위치 요소에 의해 특정된 대상 객체의 변형을 제어할 수 있다. In addition, the scene control information may include a transformation element including information related to transformation of an object located at a specific position indicated by the position element. The scene expression device 150 may control transformation of the target object specified by the location element by using the transformation element included in the scene control information.

이 때, 신 표현 장치(150)는 변형 요소에 기초하여 대상 객체를 이동시키거나, 대상 객체를 회전시키거나, 대상 객체를 확대 또는 축소시킬 수 있다. 보다 구체적으로, 변형 요소가 대상 객체를 신 내의 다른 지점으로 이동시키는 명령을 포함하는 경우, 신 표현 장치(150)는 대상 객체를 해당 지점으로 이동시킬 수 있다. 또는, 변형 요소가 대상 객체를 2배 스케일링하는 명령을 포함하는 경우, 신 표현 장치(150)는 대상 객체를 2배만큼 확대시킬 수 있다.In this case, the new expression device 150 may move the target object, rotate the target object, or enlarge or reduce the target object based on the transforming element. More specifically, when the transforming element includes a command to move the target object to another point in the scene, the scene expression device 150 may move the target object to the corresponding point. Alternatively, when the transforming element includes a command for scaling the target object by 2 times, the new expression device 150 may enlarge the target object by 2 times.

또한, 신 제어 정보는 위치 요소가 가리키는 특정 위치에 위치하는 객체의 선택 여부와 관련된 정보를 포함하는 선택 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 선택 요소를 이용하여, 위치 요소에 의해 특정된 대상 객체의 선택 여부를 제어할 수 있다. 예를 들어, 변형 요소가 대상 객체를 선택하는 지시자를 포함하는 경우 신 표현 장치(150)는 대상 객체가 선택되도록 신을 제어하고, 그렇지 않은 경우 신 표현 장치(150)는 대상 객체가 선택되지 않도록 신을 제어할 수 있다.In addition, the scene control information may include a selection element including information related to selection of an object located at a specific location indicated by the location element. The scene expression device 150 may control whether to select the target object specified by the location element by using the selection element included in the scene control information. For example, when the transforming element includes an indicator for selecting a target object, the scene expression device 150 controls the scene so that the target object is selected, and otherwise, the scene expression device 150 displays the scene so that the target object is not selected. Can be controlled.

또한, 신 제어 정보는 신의 시점과 관련된 정보를 포함하는 시점 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 시점 요소를 이용하여, 신 자체의 시점을 변경할 수 있다.In addition, the scene control information may include a viewpoint element including information related to the viewpoint of the scene. The scene expression device 150 may change the viewpoint of the scene itself by using the viewpoint element included in the scene control information.

또한, 신 제어 정보는 이용자를 식별하는 식별자와 관련된 정보를 포함하는 이용자 식별 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 이용자 식별 요소를 이용하여, 신을 제어하고자 하는 이용자를 식별할 수 있다.In addition, the new control information may include a user identification element including information related to an identifier for identifying the user. The scene expression device 150 may identify a user who wants to control the scene by using the user identification element included in the scene control information.

또한, 신 제어 정보는 위치 요소가 가리키는 특정 위치와 연관된 복수의 포인트들과 관련된 정보를 포함하는 연관 포인트 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 연관 포인트 요소를 추가적으로 이용하여, 대상 객체를 제어하는 동작을 보조(assist)할 수 있다.In addition, the scene control information may include an associated point element including information related to a plurality of points associated with a specific location indicated by the location element. The scene expression device 150 may assist an operation of controlling a target object by additionally using an associated point element included in the scene control information.

경우에 따라, 신 제어 정보는 유효 포인팅 해상도(effective pointing resolution)와 관련된 정보를 더 포함할 수 있다. 신 표현 장치(150)는 유효 포인팅 해상도와 관련된 정보를 이용하여 신 내 객체의 포인팅 제어를 보조할 수 있다.In some cases, the scene control information may further include information related to an effective pointing resolution. The scene representation device 150 may assist in controlling the pointing of an object in the scene by using information related to the effective pointing resolution.

신 제어 정보는 신에 특화된 명령을 위하여 표 1과 같은 어드밴스드 유저 인터페이스 디바이스 데이터 포맷(Advanced UI Device Data format)으로 구성될 수 있다.The scene control information may be configured in an Advanced UI Device Data format as shown in Table 1 for a scene-specific command.

AUIDataFrame [[
SFVec3f position
SFNode Transform3D
SFBool Select
SFNode Viewpoint
SFString UserID
MFVec3f AssociatedPoints[N]
]]
AUIDataFrame [[
SFVec3f position
SFNode Transform3D
SFBool Select
SFNode Viewpoint
SFString UserID
MFVec3f AssociatedPoints[N]
]]

여기서, 위치 요소(position)는 BIFS(Binary Format for Scene) 설정인 BifsConfig에 규정된 3차원 스크린 좌표, 픽셀 또는 미터를 표현하는 SFVec3f(Single Field 3rd order Vector w/floating point representation) 타입일 수 있다.Here, the position element may be a single field 3 rd order vector w/floating point representation (SFVec3f) type that expresses 3D screen coordinates, pixels, or meters specified in BifsConfig, which is a binary format for scene (BIFS) setting. .

또한, 변형 요소(Transform3D)는 이용자에 의해 의도된 기하학적 트랜스포메이션(geometrical transformation)을 표현하는 SFNode(Single Field Node) 타입일 수 있다.In addition, the transform element (Transform3D) may be a single field node (SFNode) type expressing a geometric transformation intended by a user.

또한, 선택 요소(Select)는 위치 요소에 의해 특정되는 신 오브젝트(scene object)가 이용자에 의해 선택되는 경우 참(true)을 나타내는 SFBool(Single Field Boolean) 타입일 수 있다.In addition, the selection element (Select) may be a single field Boolean (SFBool) type indicating true when a scene object specified by a location element is selected by a user.

또한, 시점 요소(Viewpoint)는 이용자에 의해 의도된 신의 시점을 표현하는 SFNode(Single Field Node) 타입일 수 있다.In addition, the viewpoint element (Viewpoint) may be a single field node (SFNode) type representing the viewpoint of the scene intended by the user.

또한, 이용자 식별 요소(UserID)는 각각의 이용자를 식별하는 스트링 변수(string variable)를 표현하는 SFString(Single Field String) 타입일 수 있다.In addition, the user identification element (UserID) may be a single field string (SFString) type representing a string variable identifying each user.

또한, 연관 포인트 요소(Associated Points)는 위치 요소와 연관된 추가적인 포인트들의 세트(set)를 표현하는 MFVec3f(Multiple Fields 3rd order Vectors w/floating point representation) 타입일 수 있다.
In addition, the associated point elements may be of MFVec3f (Multiple Fields 3rd order Vectors w/floating point representation) type representing a set of additional points associated with a location element.

도 2a 내지 도 2c는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 설명하기 위한 도면이다.2A to 2C are diagrams for explaining a user interface utilizing multi-modality according to an exemplary embodiment.

도 2a를 참조하면, 일 실시예에 따른 인터페이싱 장치(220)는 시선 모달리티를 이용하여 포인팅 제어를 할 수 있다.Referring to FIG. 2A, the interfacing device 220 according to an embodiment may perform pointing control using a gaze modality.

예를 들어, 인터페이싱 장치(220)는 이용자(210)의 시선을 감지함으로써, 디스플레이 중인 복수의 객체들 중 이용자(210)가 포인팅하고자 하는 객체(221)를 결정할 수 있다.For example, the interfacing device 220 may determine the object 221 that the user 210 wants to point from among a plurality of objects being displayed by detecting the gaze of the user 210.

나아가, 인터페이싱 장치(220)는 이용자(210)가 포인팅된 객체(221)를 미리 정해진 시간(예를 들어, 3초)동안 지속적으로 주시하는 동작이나 빠르게 눈을 두 번 깜박이는 동작 등을 감지함으로써, 포인팅되고 있는 객체(221)가 선택되도록 신을 제어할 수 있다.Furthermore, the interfacing device 220 detects an action of continuously watching the object 221 pointed to by the user 210 for a predetermined time (eg, 3 seconds) or an action of rapidly blinking eyes twice. , It is possible to control the scene so that the object 221 being pointed is selected.

물론 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.Of course, the above-described operations are only exemplary, and the configuration of the multi-modality that can be utilized by the interfacing device 220 is not limited.

도 2b를 참조하면, 일 실시예에 따른 인터페이싱 장치(220)는 양 손 모달리티를 이용하여 트랜스포메이션 제어를 할 수 있다.Referring to FIG. 2B, the interfacing device 220 according to an embodiment may perform transformation control using both hands modality.

예를 들어, 인터페이싱 장치(220)는 이용자의 양 손(215)이 3차원 공간 상에서 움직이는 동작을 인식함으로써, 포인팅된 객체(221)를 이동, 회전, 확대 또는 축소시킬 수 있다.For example, the interfacing device 220 may move, rotate, enlarge or reduce the pointed object 221 by recognizing a motion of the user's hands 215 moving in a 3D space.

이용자는 한 손으로 물건을 움켜쥐는 것과 같은 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 선택할 수 있다.The user can perform an action such as grabbing an object with one hand, and the interfacing device 220 can select the pointed object 221 by recognizing this action.

또는, 이용자는 한 손으로 물건을 움켜쥐는 것과 같은 동작을 취한 이후, 그 손을 특정 방향으로 움직이는 동작을 취할 수 있다. 이 경우, 인터페이싱 장치(220)는 이러한 동작들을 인식함으로써 포인팅된 객체(221)를 해당 방향으로 이동시킬 수 있다.Alternatively, the user may perform an action such as grasping an object with one hand, and then move the hand in a specific direction. In this case, the interfacing device 220 may move the pointed object 221 in a corresponding direction by recognizing these operations.

또는, 이용자는 양 손으로 차량 운전대를 회전시키는 것과 같은 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 회전시킬 수 있다.Alternatively, the user may perform an operation such as rotating the vehicle steering wheel with both hands, and the interfacing device 220 may rotate the pointed object 221 by recognizing this operation.

또는, 이용자는 손목을 축으로 한 손을 회전시키는 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 회전시킬 수 있다.Alternatively, the user may perform an operation of rotating one hand around the wrist, and the interfacing device 220 may rotate the pointed object 221 by recognizing this operation.

또는, 이용자는 양 손의 손바닥을 마주보게 하면서 양 손 사이의 간격을 좁히거나 벌리는 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 축소시키거나 확대시킬 수 있다Alternatively, the user may take an action to narrow or widen the gap between both hands while facing the palms of both hands, and the interfacing device 220 may reduce or enlarge the pointed object 221 by recognizing such an action. Can

물론 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.Of course, the above-described operations are only exemplary, and the configuration of the multi-modality that can be utilized by the interfacing device 220 is not limited.

이 때, 인터페이싱 장치(220)는 양 손 모달리티와 도 2a의 시선 모달리티를 함께 이용할 수 있다.In this case, the interfacing device 220 may use both hand modality and gaze modality of FIG. 2A together.

예를 들어, 인터페이싱 장치(220)는 도 2a의 시선 모달리티를 통해 이용자(210)의 시선을 감지하여 객체(221)를 포인팅하고, 양 손 모달리티를 통해 이용자의 양 손의 움직임을 인식하여 해당 객체(221)의 선택, 이동, 회전, 확대 또는 축소 등을 제어할 수 있다.For example, the interfacing device 220 detects the gaze of the user 210 through the gaze modality of FIG. 2A and points to the object 221, and recognizes the movement of both hands of the user through the gaze modality of FIG. It is possible to control the selection, movement, rotation, enlargement or reduction of the 221.

물론 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.Of course, the above-described operations are only exemplary, and the configuration of the multi-modality that can be utilized by the interfacing device 220 is not limited.

도 2c를 참조하면, 일 실시예에 따른 인터페이싱 장치(220)는 시선 모달리티와 음성 모달리티를 함께 이용하여 트랜스포메이션 제어를 할 수 있다.Referring to FIG. 2C, the interfacing device 220 according to an embodiment may perform transformation control by using both a gaze modality and a voice modality.

예를 들어, 인터페이싱 장치(220)는 시선 모달리티를 통해 이용자(210)의 시선을 감지하여 객체(221)를 선택하고, 음성 모달리티를 통해 이용자(210)의 음성을 인식하여 해당 객체(221)의 선택, 이동, 회전, 확대 또는 축소 등을 제어할 수 있다.For example, the interfacing device 220 detects the gaze of the user 210 through the gaze modality, selects the object 221, and recognizes the voice of the user 210 through the gaze modality, You can control selection, movement, rotation, zoom in or out.

물론 도 2a 내지 도 2c를 통하여 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.
Of course, the operations described above with reference to FIGS. 2A to 2C are merely exemplary, and the configuration of the multi-modality that can be utilized by the interfacing device 220 is not limited.

도 3a 내지 도 3b는 일 실시예에 따른 이용자 맞춤 파라미터를 이용하는 인터페이싱 장치를 나타낸 블록도이다.3A to 3B are block diagrams illustrating an interfacing device using a user-customized parameter according to an exemplary embodiment.

도 3a를 참조하면, 일 실시예에 따른 인터페이싱 장치(300)는 이용자 맞춤 파라미터(user customization parameter) 획득부(340)를 더 포함할 수 있다. 여기서, 신 파라미터 획득부(310), 멀티 모달리티 인식부(320), 및 신 제어 정보 생성부(330)에는 도 1을 통하여 기술한 사항들이 그대로 적용될 수 있다.Referring to FIG. 3A, the interfacing device 300 according to an embodiment may further include a user customization parameter acquiring unit 340. Here, the matters described through FIG. 1 may be applied to the new parameter acquisition unit 310, the multi-modality recognition unit 320, and the scene control information generation unit 330 as they are.

이용자 맞춤 파라미터 획득부(340)는 이용자 맞춤 파라미터를 획득할 수 있다.The user-customized parameter acquisition unit 340 may acquire a user-customized parameter.

여기서, 이용자 맞춤 파라미터는 특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들을 해당 이용자의 선호도에 따른 모달리티들로 매핑하는 매핑 정보를 포함할 수 있다.Here, the user-customized parameter may include mapping information for mapping a plurality of predetermined control aspects of a scene to modalities according to the user's preference in response to a specific user.

표 2를 참조하면, 미리 정해진 복수의 신의 제어 양상들은 포인팅, 선택, 이동, 회전, 확대, 축소, 시점 변경 등을 포함할 수 있다.Referring to Table 2, control aspects of a plurality of predetermined scenes may include pointing, selection, movement, rotation, enlargement, reduction, and viewpoint change.

Figure 112013052406016-pat00001
Figure 112013052406016-pat00001

예를 들어, 인터페이싱 장치(300)가 이용자 A에 대응되는 제1 이용자 맞춤 파라미터를 획득하는 경우를 가정하자. 이 경우, 제1 이용자 맞춤 파라미터는 이용자 A에 의해 선호되는 모달리티 또는 모달리티의 조합으로 신을 제어할 수 있도록 하는 매핑 정보를 포함할 수 있다.For example, assume that the interfacing device 300 acquires a first user customized parameter corresponding to user A. In this case, the first user-customized parameter may include mapping information for controlling the scene with a modality or a combination of modalities preferred by user A.

보다 구체적으로, 제1 이용자 맞춤 파라미터는 신에 포함된 객체의 포인팅 제어를 위하여 시선 모달리티를 이용하고, 선택 제어를 위하여 눈의 깜박임 모달리티를 이용하며, 이동 제어, 회전 제어, 스케일링 제어 및 시점 변경 제어를 위하여 음성 모달리티를 이용한다는 매핑 정보를 포함할 수 있다.More specifically, the first user-customized parameter uses gaze modality for pointing control of objects included in scenes, eye blink modality for selection control, and movement control, rotation control, scaling control, and viewpoint change control. For this, mapping information indicating that the voice modality is used may be included.

제1 이용자 맞춤 파라미터는 이용자 A에 의해 사전에 설정될 수 있고, 인터페이싱 장치(300)는 이러한 이용자 A에 특화된 파라미터를 획득함으로써 이용자 A에 특화된 유저 인터페이스를 제공할 수 있다.The first user customized parameter may be set in advance by user A, and the interfacing device 300 may provide a user interface specialized for user A by acquiring such a parameter specific to user A.

또한, 인터페이싱 장치(300)가 이용자 B에 대응되는 제2 이용자 맞춤 파라미터를 획득하는 경우를 가정하자. 이 경우, 제2 이용자 맞춤 파라미터는 이용자 B에 의해 선호되는 모달리티 또는 모달리티의 조합으로 신을 제어할 수 있도록 하는 매핑 정보를 포함할 수 있다.In addition, it is assumed that the interfacing device 300 acquires a second user customized parameter corresponding to the user B. In this case, the second user customized parameter may include mapping information for controlling the scene with a modality or a combination of modalities favored by the user B.

이 경우, 제2 이용자 맞춤 파라미터는 제1 이용자 맞춤 파라미터와 상이한 매핑 정보를 포함할 수 있다. 예를 들어, 제2 이용자 맞춤 파라미터는 신에 포함된 객체의 포인팅 제어를 위하여 손가락 끝 모달리티를 이용하고, 선택 제어를 위하여 손의 움켜쥠 등 손 동작 모달리티를 이용하며, 이동 제어를 위하여 손의 이동 등 손 동작 모달리티를 이용하고, 회전 동작을 위하여 손의 회전 등 손 동작 모달리티를 이용하며, 스케일링 제어를 위하여 음성 모달리티를 이용하고, 시점 변경 제어를 위하여 스크린을 기준으로 하는 이용자의 머리의 상대적 위치 등 머리 위치 모달리티를 이용한다는 매핑 정보를 포함할 수 있다.In this case, the second user customized parameter may include mapping information different from the first user customized parameter. For example, the second user-customized parameter uses a fingertip modality for pointing control of an object included in a scene, a hand motion modality such as hand grip for selection control, and a hand movement for movement control, etc. Hand motion modality is used, hand motion modality such as hand rotation is used for rotational motion, voice modality is used for scaling control, and the relative position of the user's head relative to the screen is used for viewpoint change control. Mapping information indicating that location modality is used may be included.

마찬가지로 제2 이용자 맞춤 파라미터는 이용자 B에 의해 사전에 설정될 수 있고, 인터페이싱 장치(300)는 이러한 이용자 B에 특화된 파라미터를 획득함으로써 이용자 B에 특화된 유저 인터페이스를 제공할 수 있다.Similarly, the second user-customized parameter may be set in advance by the user B, and the interfacing device 300 may provide a user interface specific to the user B by acquiring such a parameter specific to the user B.

신 제어 정보 생성부(330)는 이용자 맞춤 파라미터 획득부(340)에 의해 획득된 이용자 맞춤 파라미터에 기초하여, 멀티 모달리티 인식부(320)에 의해 인식되는 적어도 두 개의 모달리티 입력들을 해석할 수 있다.The new control information generation unit 330 may analyze at least two modality inputs recognized by the multi-modality recognition unit 320 on the basis of the user-customized parameter obtained by the user-customized parameter obtaining unit 340.

이로 인하여, 일 실시예에 따른 인터페이싱 장치(300)는 동일한 모달리티 입력들이 인식되더라도, 이용자 맞춤 파라미터에 따라 상이한 신 제어 정보를 생성할 수 있다.For this reason, even if the same modality inputs are recognized, the interfacing device 300 according to an embodiment may generate different scene control information according to a user-customized parameter.

도면에 표시하지는 않았으나, 다른 실시예에 따른 인터페이싱 장치(300)는 식별부를 더 포함할 수 있다.Although not shown in the drawings, the interfacing device 300 according to another embodiment may further include an identification unit.

이 경우, 식별부는 인터페이싱 장치(300)를 이용하는 이용자를 식별할 수 있다. 식별부가 이용자를 식별하는 방식은 다양하게 구현될 수 있다. 예를 들어, 식별부는 이용자의 로그인 정보를 이용하여 이용자를 식별할 수 있다. 또는, 식별부는 이용자의 얼굴, 홍채, 지문 등 생체 정보를 활용하여 이용자를 식별할 수 있다.In this case, the identification unit may identify a user who uses the interfacing device 300. The manner in which the identification unit identifies the user may be implemented in various ways. For example, the identification unit may identify the user by using the user's login information. Alternatively, the identification unit may identify the user by using biometric information such as the user's face, iris, and fingerprint.

이용자 맞춤 파라미터 획득부(340)는 식별부에 의해 식별된 이용자에 대응되는 이용자 맞춤 파라미터를 획득할 수 있다. 경우에 따라, 이용자 맞춤 파라미터 획득부(340)는 유선 네트워크 또는 무선 네트워크를 통해 접속 가능한 서버로부터 이용자 맞춤 파라미터를 획득할 수 있다.The user-customized parameter obtaining unit 340 may obtain a user-customized parameter corresponding to the user identified by the identification unit. In some cases, the user-customized parameter acquisition unit 340 may obtain a user-customized parameter from a server accessible through a wired network or a wireless network.

이로 인하여, 일 실시예에 따른 인터페이싱 장치(300)가 이용되는 시스템 하에서, 이용자들은 자신만의 인터페이싱 설정을 다양한 환경에서 동일하게 이용할 수 있다.For this reason, under a system in which the interfacing device 300 according to an exemplary embodiment is used, users can use their own interfacing settings in the same manner in various environments.

예를 들어, 이용자 C는 회사에서 프리젠테이션을 위한 제1 인터페이싱 장치를 이용하고, 집에서 영화 감상을 위한 제2 인터페이싱 장치를 이용하며, 차 내에서 네비게이션 조작을 위한 제3 인터페이싱 장치를 이용할 수 있다.For example, user C may use a first interfacing device for a presentation in a company, a second interfacing device for watching a movie at home, and a third interfacing device for navigation operation in a car. .

일 실시예에 따르면, 제1 인터페이싱 장치, 제2 인터페이싱 장치, 및 제3 인터페이싱 장치는 각각 이용자 C를 식별하고, 이용자 C에 특화된 이용자 설정 파라미터를 이용할 수 있다. 따라서, 이용자 C는 자신에게 최적화된 입력 방식을 이용하여, 다양한 인터페이싱 장치들을 동일한 방식으로 조작할 수 있다.According to an embodiment, the first interfacing device, the second interfacing device, and the third interfacing device may each identify user C and use a user setting parameter specialized for user C. Accordingly, user C can operate various interfacing devices in the same manner by using an input method optimized for him.

이로 인하여, 일 실시예에 따른 인터페이싱 장치는 이용자가 선호하는 유저 인터페이스 동작을 커스터마이즈(customize)하고, 다양한 신에 필요한 명령을 자동으로 생성하는 기술을 제공할 수 있다. 그 결과, 이용자는 다양한 신 또는 다양한 환경에서 매번 필요한 동작 종류를 인식할 필요 없이, 이용자에게 익숙한 동작을 취함으로써 원하는 조작을 수행할 수 있다.Accordingly, the interfacing device according to an embodiment may provide a technology for customizing a user interface operation preferred by a user and automatically generating commands necessary for various scenes. As a result, the user can perform a desired operation by taking an operation familiar to the user without having to recognize the type of operation required each time in various scenes or various environments.

이를 위하여, 도 3b를 참조하면, 일 실시예에 따른 신 제어 정보 생성부(330)는 모달리티 선택부를 포함할 수 있다.To this end, referring to FIG. 3B, the scene control information generation unit 330 according to an embodiment may include a modality selector.

모달리티 선택부는 이용자 맞춤 파라미터 획득부(340)에 의해 획득된 이용자 맞춤 파라미터를 이용하여 포인팅 용 모달리티, 트랜지션 용 모달리티, 로테이션 용 모달리티, 스케일링 용 모달리티, 및 셀렉트 용 모달리트 등을 선택할 수 있다.The modality selection unit may select a pointing modality, a transition modality, a rotation modality, a scaling modality, and a select modality, using the user-customized parameter obtained by the user-customized parameter acquisition unit 340.

나아가, 신 제어 정보 생성부는 모달리티 선택부에 의해 선택된 포인팅 용 모달리티, 트랜지션 용 모달리티, 로테이션 용 모달리티, 스케일링 용 모달리티, 및 셀렉트 용 모달리티에 따라 모달리티 입력들을 해석할 수 있다.
Furthermore, the scene control information generation unit may interpret modality inputs according to the modality for pointing, modality for transition, modality for rotation, modality for scaling, and modality for select selected by the modality selector.

도 4는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 시스템을 설명하기 위한 도면이다.4 is a diagram for explaining an interfacing system that provides a user interface utilizing multi-modality according to an embodiment.

도 4를 참조하면, 일 실시예에 따른 인터페이싱 장치(410)는 신 표현 장치(420) 및 이용자(430) 사이에서 유저 인터페이스를 제공할 수 있다. 이하, 인터페이싱 장치(410)는 이용자(430)의 스마트 폰인 경우를 가정하자.Referring to FIG. 4, the interfacing device 410 according to an embodiment may provide a user interface between the new expression device 420 and the user 430. Hereinafter, it is assumed that the interfacing device 410 is a smart phone of the user 430.

예를 들어, 인터페이싱 장치(410)는 제1 카메라(411), 제2 카메라(413), 블루투스 트랜시버(412), 마이크(414), 인터넷 통신부(415), 및 제어부(416)를 포함할 수 있다.For example, the interfacing device 410 may include a first camera 411, a second camera 413, a Bluetooth transceiver 412, a microphone 414, an Internet communication unit 415, and a control unit 416. have.

인터페이싱 장치(410)는 제1 카메라(411)를 이용하여 신 표현 장치(420)의 위치를 파악하고, 제2 카메라(412)를 이용하여 이용자(430)의 위치를 파악할 수 있다. 나아가, 인터페이싱 장치(410)는 신 표현 장치(420)와 이용자(430) 사이의 상대적인 위치를 계산할 수 있다.The interfacing device 410 may determine the location of the new expression device 420 using the first camera 411 and may determine the location of the user 430 using the second camera 412. Furthermore, the interfacing device 410 may calculate a relative position between the scene expression device 420 and the user 430.

경우에 따라, 인터페이싱 장치(410)는 제2 카메라(412)를 이용하여 이용자(430)의 얼굴 위치를 인식하고, 그 정보를 신 표현 장치(420)로 전송할 수 있다. 이러한 정보에 기초하여, 신 표현 장치(420)는 이용자(430)에게 입체 영상을 제공하기 위한 패럴렉스 배리어(parallex barrier) 동작 등을 수행할 수 있다.In some cases, the interfacing device 410 may recognize the location of the user's 430 face using the second camera 412 and transmit the information to the new expression device 420. Based on this information, the new expression device 420 may perform a paralex barrier operation or the like for providing a stereoscopic image to the user 430.

이 때, 인터페이싱 장치(410)는 블루투스 트랜시버(412)를 이용하여 신 표현 장치(420)와 데이터를 주고 받을 수 있다. 물론 인터페이싱 장치(410)는 블루투스 기법 이외에도 다양한 근거리 통신(near filed communication) 기법을 이용할 수 있다. 도면에 도시하지 않았으나, 다른 실시예에 따른 인터페이싱 장치(410)는 클라우딩 환경을 통하여 신 표현 장치(420)와 데이터를 주고 받을 수 있다.In this case, the interfacing device 410 may exchange data with the new presentation device 420 using the Bluetooth transceiver 412. Of course, the interfacing device 410 may use various near-field communication techniques in addition to the Bluetooth technique. Although not shown in the drawings, the interfacing device 410 according to another embodiment may exchange data with the new expression device 420 through a clouding environment.

또한, 인터페이싱 장치(410)는 제2 카메라(413)를 이용하여 이용자(430)의 시선을 인식하거나, 이용자(430)의 손 동작 등을 인식할 수 있다. 인터페이싱 장치(410)는 마이크(414)를 이용하여 이용자(430)의 음성을 인식할 수 있다.In addition, the interfacing device 410 may recognize the gaze of the user 430 using the second camera 413 or may recognize a hand motion of the user 430. The interfacing device 410 may recognize the voice of the user 430 using the microphone 414.

이 때, 인터페이싱 장치(410)는 제2 카메라(413)를 이용하여 이용자(430)를 식별하고, 식별된 이용자(430)에 대응되는 이용자 맞춤 파라미터를 원격에 위치된 서버(440)로부터 수신할 수 있다. 인터페이싱 장치(410)는 인터넷 통신부(415)를 이용하여 서버(440)에 접속할 수 있다.At this time, the interfacing device 410 identifies the user 430 using the second camera 413 and receives a user-customized parameter corresponding to the identified user 430 from the remotely located server 440. I can. The interfacing device 410 may access the server 440 using the Internet communication unit 415.

제어부(416)는 전술한 동작들을 제어할 수 있다. 특히, 제어부(416)는 이용자 맞춤 파라미터에 따라 이용자(430)의 모달리티 입력들을 해석하고, 신 제어 정보를 생성할 수 있다.The control unit 416 may control the above-described operations. In particular, the control unit 416 may analyze modality inputs of the user 430 according to the user-customized parameter and generate new control information.

인터페이싱 장치(410)는 생성된 신 제어 정보를 신 표현 장치(420)로 전송할 수 있다. 신 표현 장치(420)는 신 제어 정보에 기초하여 신에 포함된 객체 또는 신 자체의 시점 등을 제어할 수 있다.The interfacing device 410 may transmit the generated scene control information to the scene expression device 420. The scene expression device 420 may control an object included in the scene or a viewpoint of the scene itself, based on the scene control information.

이 때, 인터페이싱 장치(410)는 지속적으로 센싱 데이터 또는 인식 결과를 신 표현 장치(420)로 전송하는 대신, 신 표현 장치(420)가 신을 제어하는데 필요한 제어 정보를 생성하여 해당 정보만을 전송할 수 있다. 이로 인하여, 인터페이싱 장치(410)는 유저 인터페이스를 제공하기 위해 송수신되는 데이터의 양을 최적화시키는 기술을 제공할 수 있다.At this time, the interfacing device 410 may generate control information necessary for the new expression device 420 to control the scene instead of continuously transmitting the sensing data or the recognition result to the new expression device 420 and transmit only the corresponding information. . Accordingly, the interfacing device 410 may provide a technology for optimizing the amount of data transmitted and received to provide a user interface.

도 4에 도시된 각 모듈들에는 도 1 내지 도 3b를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
Since matters described through FIGS. 1 to 3B may be applied to each of the modules shown in FIG. 4, a more detailed description will be omitted.

도 5는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법을 나타낸 동작 흐름도이다.5 is a flowchart illustrating an interfacing method for providing a user interface utilizing multi-modality according to an exemplary embodiment.

도 5를 참조하면, 일 실시예에 따른 인터페이싱 방법은 멀티 모달리티를 활용한 유저 인터페이스를 제공할 수 있다.Referring to FIG. 5, the interfacing method according to an embodiment may provide a user interface utilizing multi-modality.

예를 들어, 일 실시예에 따른 인터페이싱 방법은 단계(510)에서 신과 관련된 정보를 포함하는 신 파라미터를 획득할 수 있다. 인터페이싱 방법은 단계(520)에서 이용자로부터 입력되는 적어도 두 개의 모달리티 입력들을 인식할 수 있다. 인터페이싱 방법은 단계(540)에서 신 파라미터 및 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성할 수 있다.For example, in the interfacing method according to an embodiment, in step 510, a scene parameter including information related to a scene may be obtained. The interfacing method may recognize at least two modality inputs input from a user in step 520. The interfacing method may generate scene control information based on a scene parameter and at least two modality inputs in step 540.

경우에 따라, 인터페이싱 방법은 단계(530)에서 이용자 맞춤 파라미터를 획득할 수 있다. 이 경우, 인터페이싱 방법은 단계(540)에서 이용자 맞춤 파라미터에 기초하여 이용자로부터 입력되는 적어도 두 개의 모달리티 입력들을 해석할 수 있다.In some cases, the interfacing method may acquire user-customized parameters in step 530. In this case, the interfacing method may interpret at least two modality inputs input from the user based on the user customization parameter in step 540.

도 5에 도시된 각 단계들에는 도 1 내지 도 4를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
Since the matters described through FIGS. 1 to 4 may be applied to each of the steps shown in FIG. 5 as they are, a more detailed description will be omitted.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

Claims (17)

멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치에 있어서,
이용자를 식별하고, 상기 이용자와 인터액션(interaction)할 수 있는 신(scene)의 특성과 관련된 정보를 포함하는 신 파라미터(scene parameter)를 획득하고, 상기 신 파라미터가 적어도 두 개의 모달리티 입력들에 대응함을 지시하는 이용자 맞춤 파라미터를 획득하며,상기 신 파라미터 및 상기 이용자 맞춤 파라미터에 기초하여 적어도 두 개의 모달리티 입력들을 해석함으로써, 신 제어 정보(scene control information)를 생성하고, 상기 신 제어 정보에 기초하여, 상기 신에 포함된 적어도 하나의 객체를 선택하고, 변형을 제어하는 적어도 하나의 프로세서
를 포함하는 인터페이싱 장치.
In an interfacing device that provides a user interface utilizing multi-modality,
To identify a user and obtain a scene parameter including information related to a characteristic of a scene capable of interacting with the user, and that the scene parameter corresponds to at least two modality inputs. Acquires a user-customized parameter indicating, and generates scene control information by analyzing at least two modality inputs based on the scene parameter and the user-customized parameter, and based on the scene control information, the At least one processor that selects at least one object included in the scene and controls transformation
Interfacing device comprising a.
제1항에 있어서,
상기 신 파라미터는
상기 신에 포함된 적어도 하나의 객체(object)의 크기와 관련된 파라미터;
상기 적어도 하나의 객체의 위치와 관련된 파라미터;
상기 적어도 하나의 객체의 이동 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 회전 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 스케일 제어와 관련된 파라미터; 및
상기 신의 시점과 관련된 파라미터
중 적어도 하나를 포함하는 인터페이싱 장치.
The method of claim 1,
The scene parameter is
A parameter related to the size of at least one object included in the scene;
A parameter related to the location of the at least one object;
A parameter related to movement control of the at least one object;
A parameter related to rotation control of the at least one object;
A parameter related to scale control of the at least one object; And
Parameters related to the viewpoint of the god
Interfacing device comprising at least one of.
제1항에 있어서,
상기 프로세서는
이용자의 시선, 이용자의 손가락 끝, 이용자의 손 자세, 이용자의 손 동작, 또는 이용자의 음성을 인식하는
인터페이싱 장치.
The method of claim 1,
The processor is
Recognizing the user's gaze, the user's fingertips, the user's hand posture, the user's hand motion, or the user's voice
Interfacing device.
제1항에 있어서,
상기 신 제어 정보는
상기 신 내 특정 위치와 관련된 정보를 포함하는 위치 요소;
상기 특정 위치에 위치하는 객체의 변형과 관련된 정보를 포함하는 변형 요소;
상기 특정 위치에 위치하는 객체의 선택 여부와 관련된 정보를 포함하는 선택 요소;
상기 신의 시점과 관련된 정보를 포함하는 시점 요소;
이용자를 식별하는 식별자와 관련된 정보를 포함하는 이용자 식별 요소; 및
상기 특정 위치와 연관된 복수의 포인트들과 관련된 정보를 포함하는 연관 포인트 요소
중 적어도 하나를 포함하는 인터페이싱 장치.
The method of claim 1,
The scene control information is
A location element including information related to a specific location in the scene;
A transformation element including information related to transformation of the object located at the specific position;
A selection element including information related to selection of an object located at the specific location;
A viewpoint element including information related to the viewpoint of the scene;
A user identification element comprising information related to an identifier identifying a user; And
Association point element including information related to a plurality of points associated with the specific location
Interfacing device comprising at least one of.
제1항에 있어서,
상기 프로세서는
상기 이용자 맞춤 파라미터에 기초하여 상기 적어도 두 개의 모달리티 입력들의 조합을 해석하는
인터페이싱 장치.
The method of claim 1,
The processor is
Interpreting a combination of the at least two modality inputs based on the user customization parameter
Interfacing device.
제5항에 있어서,
상기 이용자 맞춤 파라미터는
특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들 각각을 상기 특정 이용자의 선호도에 따라 복수의 모달리티 입력들 중 어느 하나 또는 상기 복수의 모달리티 입력들로부터 선택 가능한 둘 이상의 조합으로 매핑하는 매핑 정보
를 포함하는 인터페이싱 장치.
The method of claim 5,
The user-customized parameter is
Mapping information for mapping each of a plurality of predetermined control aspects of a plurality of scenes in response to a specific user to any one of a plurality of modality inputs or a combination of two or more selectable from the plurality of modality inputs according to the preference of the specific user
Interfacing device comprising a.
제5항에 있어서,
상기 프로세서는
이용자를 식별하고, 상기 상기 이용자 맞춤 파라미터는 상기 식별된 이용자에 대응되는
인터페이싱 장치.
The method of claim 5,
The processor is
Identify a user, and the user-customized parameter corresponds to the identified user
Interfacing device.
제1항에 있어서,
상기 프로세서는
센서를 통해 입력된 센서 데이터를 수신하고, 상기 수신된 센서 데이터에 기초하여 상기 적어도 두 개의 모달리티 입력들을 인식하는
인터페이싱 장치.
The method of claim 1,
The processor is
Receiving sensor data input through a sensor, and recognizing the at least two modality inputs based on the received sensor data
Interfacing device.
제1항에 있어서,
상기 프로세서는
상기 신을 표현(representation)하는 신 표현 장치와 통신하고, 통신 장치를 이용하여 상기 신 표현 장치로부터 상기 신 파라미터를 수신하며, 상기 통신 장치를 이용하여 상기 생성된 신 제어 정보를 상기 신 표현 장치로 송신하는
인터페이싱 장치.
The method of claim 1,
The processor is
Communicates with a scene representation device representing the scene, receives the scene parameter from the scene representation device using a communication device, and transmits the generated scene control information to the scene representation device using the communication device doing
Interfacing device.
제9항에 있어서,
상기 프로세서는
상기 신 제어 정보에 기초하여 상기 신을 제어하고, 상기 제어된 신을 표현하는
인터페이싱 장치.
The method of claim 9,
The processor is
Controlling the scene based on the scene control information, and expressing the controlled scene
Interfacing device.
멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법에 있어서,
이용자를 식별하는 단계;
상기 이용자와 인터액션(interaction)할 수 있는 신의 특성과 관련된 정보를 포함하는 신 파라미터를 획득하는 단계;
상기 신 파라미터가 적어도 두 개의 모달리티 입력들에 대응함을 지시하는 이용자 맞춤 파라미터를 획득하는 단계;
상기 신 파라미터 및 상기 이용자 맞춤 파라미터에 기초하여 적어도 두 개의 모달리티 입력들을 해석함으로써, 신 제어 정보를 생성하는 단계; 및
상기 신 제어 정보에 기초하여, 상기 신에 포함된 적어도 하나의 객체를 선택하고, 변형을 제어하는 단계
를 포함하는 인터페이싱 방법.
In the interfacing method that provides a user interface utilizing multi-modality,
Identifying a user;
Acquiring a scene parameter including information related to a characteristic of a scene capable of interacting with the user;
Obtaining a user-customized parameter indicating that the new parameter corresponds to at least two modality inputs;
Generating scene control information by analyzing at least two modality inputs based on the scene parameter and the user customized parameter; And
Selecting at least one object included in the scene and controlling transformation based on the scene control information
Interfacing method comprising a.
제11항에 있어서,
상기 신 제어 정보를 생성하는 단계는
상기 이용자 맞춤 파라미터에 기초하여 상기 적어도 두 개의 모달리티 입력들을 해석하는 단계; 및
상기 해석된 모달리티 입력들 및 상기 신 파라미터에 기초하여, 신 제어 정보를 생성하는 단계
를 포함하는 인터페이싱 방법.
The method of claim 11,
The step of generating the scene control information
Interpreting the at least two modality inputs based on the user customization parameter; And
Generating scene control information based on the analyzed modality inputs and the scene parameter
Interfacing method comprising a.
제11항에 있어서,
상기 이용자 맞춤 파라미터는
특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들 각각을 상기 특정 이용자의 선호도에 따라 복수의 모달리티 입력들 중 어느 하나 또는 상기 복수의 모달리티 입력들로부터 선택 가능한 둘 이상의 조합으로 매핑하는 매핑 정보
를 포함하는 인터페이싱 방법.
The method of claim 11,
The user-customized parameter is
Mapping information for mapping each of a plurality of predetermined control aspects of a plurality of scenes in response to a specific user to any one of a plurality of modality inputs or a combination of two or more selectable from the plurality of modality inputs according to the preference of the specific user
Interfacing method comprising a.
제11항에 있어서,
상기 신 제어 정보는
상기 신 내 특정 위치와 관련된 정보를 포함하는 위치 요소;
상기 특정 위치에 위치하는 객체의 변형과 관련된 정보를 포함하는 변형 요소;
상기 특정 위치에 위치하는 객체의 선택 여부와 관련된 정보를 포함하는 선택 요소;
상기 신의 시점과 관련된 정보를 포함하는 시점 요소;
이용자를 식별하는 식별자와 관련된 정보를 포함하는 이용자 식별 요소; 및
상기 특정 위치와 연관된 복수의 포인트들과 관련된 정보를 포함하는 연관 포인트 요소
중 적어도 하나를 포함하는 인터페이싱 방법.
The method of claim 11,
The scene control information is
A location element including information related to a specific location in the scene;
A transformation element including information related to transformation of the object located at the specific position;
A selection element including information related to selection of an object located at the specific location;
A viewpoint element including information related to the viewpoint of the scene;
A user identification element comprising information related to an identifier identifying a user; And
Association point element including information related to a plurality of points associated with the specific location
Interfacing method comprising at least one of.
제11항에 있어서,
상기 적어도 두 개의 모달리티 입력들을 인식하는 단계는
이용자의 시선을 인식하는 단계;
이용자의 손가락 끝을 인식하는 단계;
이용자의 손 자세를 인식하는 단계;
이용자의 손 동작을 인식하는 단계; 및
이용자의 음성을 인식하는 단계
중 적어도 하나를 포함하는 인터페이싱 방법.
The method of claim 11,
Recognizing the at least two modality inputs
Recognizing the user's gaze;
Recognizing the user's fingertips;
Recognizing the user's hand posture;
Recognizing a user's hand motion; And
Step of recognizing the user's voice
Interfacing method comprising at least one of.
제11항에 있어서,
상기 신 파라미터는
상기 신에 포함된 적어도 하나의 객체의 크기와 관련된 파라미터;
상기 적어도 하나의 객체의 위치와 관련된 파라미터;
상기 적어도 하나의 객체의 이동 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 회전 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 스케일 제어와 관련된 파라미터; 및
상기 신의 시점과 관련된 파라미터
중 적어도 하나를 포함하는 인터페이싱 방법.
The method of claim 11,
The scene parameter is
A parameter related to the size of at least one object included in the scene;
A parameter related to the location of the at least one object;
A parameter related to movement control of the at least one object;
A parameter related to rotation control of the at least one object;
A parameter related to scale control of the at least one object; And
Parameters related to the viewpoint of the god
Interfacing method comprising at least one of.
제11항 내지 제16항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium on which a program for executing the method of any one of claims 11 to 16 is recorded.
KR1020130067516A 2012-10-09 2013-06-13 Interfacing device of providing user interface expoliting multi-modality and mehod thereof KR102156175B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/046,017 US10133470B2 (en) 2012-10-09 2013-10-04 Interfacing device and method for providing user interface exploiting multi-modality

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261711359P 2012-10-09 2012-10-09
US61/711,359 2012-10-09
US201261713822P 2012-10-15 2012-10-15
US61/713,822 2012-10-15

Publications (2)

Publication Number Publication Date
KR20140045865A KR20140045865A (en) 2014-04-17
KR102156175B1 true KR102156175B1 (en) 2020-09-15

Family

ID=50653132

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130067516A KR102156175B1 (en) 2012-10-09 2013-06-13 Interfacing device of providing user interface expoliting multi-modality and mehod thereof

Country Status (1)

Country Link
KR (1) KR102156175B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9583105B2 (en) * 2014-06-06 2017-02-28 Microsoft Technology Licensing, Llc Modification of visual content to facilitate improved speech recognition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001100A1 (en) * 2002-06-27 2004-01-01 Alcatel Method and multimode user interface for processing user inputs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101341485B1 (en) * 2009-11-11 2013-12-13 한국전자통신연구원 System and method for real-sense broadcasting service using device cooperation
KR101284561B1 (en) * 2011-02-14 2013-07-11 충남대학교산학협력단 System and method for multi-modality emotion recognition and recording medium thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001100A1 (en) * 2002-06-27 2004-01-01 Alcatel Method and multimode user interface for processing user inputs

Also Published As

Publication number Publication date
KR20140045865A (en) 2014-04-17

Similar Documents

Publication Publication Date Title
US10761612B2 (en) Gesture recognition techniques
KR102413561B1 (en) Virtual user input controls in a mixed reality environment
CN109564472B (en) Method, medium, and system for selecting an interaction method with a virtual object
US10120454B2 (en) Gesture recognition control device
US9430698B2 (en) Information input apparatus, information input method, and computer program
JP6057396B2 (en) 3D user interface device and 3D operation processing method
JP5936155B2 (en) 3D user interface device and 3D operation method
US9477303B2 (en) System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR102517425B1 (en) Systems and methods of direct pointing detection for interaction with a digital device
CN102789313B (en) User interaction system and method
US8823642B2 (en) Methods and systems for controlling devices using gestures and related 3D sensor
JP6072237B2 (en) Fingertip location for gesture input
US20180292907A1 (en) Gesture control system and method for smart home
US20140240225A1 (en) Method for touchless control of a device
CN110476142A (en) Virtual objects user interface is shown
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
US20200142495A1 (en) Gesture recognition control device
US10133470B2 (en) Interfacing device and method for providing user interface exploiting multi-modality
CN102779000A (en) User interaction system and method
KR20120086266A (en) Object manipulation method in augmented reality environment and Apparatus for augmented reality implementing the same
CN115039166A (en) Augmented reality map management
KR102156175B1 (en) Interfacing device of providing user interface expoliting multi-modality and mehod thereof
KR101525011B1 (en) tangible virtual reality display control device based on NUI, and method thereof
KR101558094B1 (en) Multi-modal system using for intuitive hand motion and control method thereof
WO2023069591A1 (en) Object-based dual cursor input and guiding system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant