KR102156175B1 - Interfacing device of providing user interface expoliting multi-modality and mehod thereof - Google Patents
Interfacing device of providing user interface expoliting multi-modality and mehod thereof Download PDFInfo
- Publication number
- KR102156175B1 KR102156175B1 KR1020130067516A KR20130067516A KR102156175B1 KR 102156175 B1 KR102156175 B1 KR 102156175B1 KR 1020130067516 A KR1020130067516 A KR 1020130067516A KR 20130067516 A KR20130067516 A KR 20130067516A KR 102156175 B1 KR102156175 B1 KR 102156175B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- scene
- parameter
- modality
- interfacing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치가 개시된다. 일 실시예는 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식하고, 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성한다.Disclosed is an interfacing device that provides a user interface utilizing multi-modality. An embodiment recognizes at least two modality inputs for controlling a scene, and generates scene control information based on the at least two modality inputs.
Description
아래 실시예들은 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치 및 그 장치를 이용한 방법에 관한 것이다.
The following embodiments relate to an interfacing device that provides a user interface utilizing multi-modality and a method using the device.
휴먼 센싱 기술(human sensing technology)는 직관적인 유저 인터페이스를 제공할 수 있다. 이러한 휴먼 센싱 기술은 다양한 가전제품들에 적용되고 있다.Human sensing technology can provide an intuitive user interface. Such human sensing technology is being applied to various home appliances.
일반적으로, 휴먼 센싱 기술은 가전제품의 조작을 수행하기 위해 미리 결정된 특정 동작의 검출되었을 때, 검출된 동작에 해당되는 액션을 수행하도록 구현된다.
In general, the human sensing technology is implemented to perform an action corresponding to the detected motion when a predetermined specific motion is detected in order to manipulate the home appliance.
일 측에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치는 신(scene)과 관련된 정보를 포함하는 신 파라미터(scene parameter)를 획득하는 신 파라미터 획득부; 상기 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식하는 멀티 모달리티 인식부; 및 상기 신 파라미터 및 상기 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보(scene control information)를 생성하는 신 제어 정보 생성부를 포함한다.An interfacing device that provides a user interface utilizing multi-modality according to one side includes: a scene parameter acquisition unit acquiring a scene parameter including information related to a scene; A multi-modality recognition unit for recognizing at least two modality inputs for controlling the scene; And a scene control information generator that generates scene control information based on the scene parameter and the at least two modality inputs.
이 때, 상기 인터페이싱 장치는 이용자 맞춤 파라미터(user customization parameter)를 획득하는 이용자 맞춤 파라미터 획득부를 더 포함하고, 상기 신 제어 정보 생성부는 상기 이용자 맞춤 파라미터에 기초하여 상기 적어도 두 개의 모달리티 입력들의 조합을 해석하는 해석부를 포함할 수 있다.In this case, the interfacing device further includes a user customization parameter obtaining unit that obtains a user customization parameter, and the new control information generation unit analyzes a combination of the at least two modality inputs based on the user customization parameter. It may include an analysis unit.
여기서, 상기 이용자 맞춤 파라미터는 특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들 각각을 상기 특정 이용자의 선호도에 따라 복수의 모달리티 입력들 중 어느 하나 또는 상기 복수의 모달리티 입력들로부터 선택 가능한 둘 이상의 조합으로 매핑하는 매핑 정보를 포함할 수 있다.Here, the user-customized parameter corresponds to a specific user, and selects each of a plurality of predetermined control aspects of the scene from one of a plurality of modality inputs or two or more modality inputs according to the preference of the specific user. Mapping information that maps in combination may be included.
또한, 상기 인터페이싱 장치는 이용자를 식별하는 이용자 식별부를 더 포함하고, 상기 이용자 맞춤 파라미터 획득부는 상기 식별된 이용자에 대응되는 이용자 맞춤 파라미터를 획득할 수 있다.In addition, the interfacing device may further include a user identification unit for identifying a user, and the user customized parameter obtaining unit may obtain a user customized parameter corresponding to the identified user.
다른 일 측에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법은 신과 관련된 정보를 포함하는 신 파라미터를 획득하는 단계; 상기 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식하는 단계; 및 상기 신 파라미터 및 상기 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성하는 단계를 포함한다.
The interfacing method for providing a user interface utilizing multi-modality according to the other side includes: obtaining a scene parameter including information related to a scene; Recognizing at least two modality inputs for controlling the scene; And generating scene control information based on the scene parameter and the at least two modality inputs.
도 1은 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치를 나타낸 블록도.
도 2a 내지 도 2c는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 설명하기 위한 도면.
도 3a 내지 도 3b는 일 실시예에 따른 이용자 맞춤 파라미터를 이용하는 인터페이싱 장치를 나타낸 블록도.
도 4는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 시스템을 설명하기 위한 도면.
도 5는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법을 나타낸 동작 흐름도.1 is a block diagram illustrating an interfacing device providing a user interface utilizing multi-modality according to an embodiment.
2A to 2C are views for explaining a user interface utilizing multi-modality according to an embodiment.
3A to 3B are block diagrams illustrating an interfacing device using a user-customized parameter according to an embodiment.
4 is a view for explaining an interfacing system that provides a user interface utilizing multi-modality according to an embodiment.
5 is a flowchart illustrating an interfacing method for providing a user interface utilizing multi-modality according to an embodiment.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치를 나타낸 블록도이다.1 is a block diagram illustrating an interfacing device that provides a user interface utilizing multi-modality according to an embodiment.
도 1을 참조하면, 일 실시예에 따른 인터페이싱 장치(100)는 멀티 모달리티(multi modalities)를 활용하여 유저 인터페이스(user interface, UI)를 제공한다.Referring to FIG. 1, an
여기서, 모달리티(modality)는 시각 또는 청각과 같은 1차 감각 양상으로, 멀티 모달리티는 적어도 두 개의 서로 다른 유형의 모달리티들의 조합을 이용하는 기법이다.Here, modality is a primary sensory aspect such as sight or hearing, and multi-modality is a technique using a combination of at least two different types of modalities.
일 실시예에 따른 인터페이싱 장치(100)는 신 파라미터(scene parameter) 획득부(110), 멀티 모달리티 인식부(120), 및 신 제어 정보(scene control information) 생성부를 포함할 수 있다.The
신 파라미터 획득부(110)는 신 파라미터를 획득할 수 있다. 여기서, 신(scene)은 신 표현 장치(150)에 의하여 이용자에게 제공되는 멀티미디어 컨텐츠로, 평면 영상, 입체 영상, 음향 등을 포괄적으로 포함할 수 있다.The new
신 파라미터는 신(scene)과 관련된 정보를 포함하고, 특히 이용자와 인터액션(interaction)할 수 있는 신의 특성과 관련된 정보를 포함할 수 있다. The scene parameter may include information related to a scene, and in particular, may include information related to a characteristic of a scene capable of interacting with a user.
예를 들어, 신 파라미터는 신에 포함된 적어도 하나의 객체(object)의 크기와 관련된 파라미터 또는 해당 객체의 위치와 관련된 파라미터를 포함할 수 있다. 이러한 적어도 하나의 객체 각각은 인터페이싱 장치(100)에 의해 제공되는 유저 인터페이스를 통해 제어될 수 있다.For example, the scene parameter may include a parameter related to the size of at least one object included in the scene or a parameter related to the location of the corresponding object. Each of these at least one object may be controlled through a user interface provided by the
또한, 신 파라미터는 해당 객체의 이동 제어와 관련된 파라미터, 해당 객체의 회전 제어와 관련된 파라미터, 또는 해당 객체의 스케일 제어와 관련된 파라미터를 포함할 수 있다. 예를 들어, 신 파라미터는 해당 객체가 이용자의 입력에 따라 이동될 수 있는 것인지 여부, 회전될 수 있는 것인지 여부, 또는 확대되거나 축소될 수 있는 것인지 여부를 지시하는 정보를 포함할 수 있다.In addition, the new parameter may include a parameter related to movement control of a corresponding object, a parameter related to rotation control of a corresponding object, or a parameter related to scale control of the corresponding object. For example, the scene parameter may include information indicating whether the object can be moved, whether it can be rotated, or whether it can be enlarged or reduced according to a user's input.
또한, 신 파라미터는 신의 시점과 관련된 파라미터를 포함할 수 있다. 예를 들어, 신 파라미터는 현재 보여지고 있는 신의 시점과 관련된 정보, 신의 시점이 변경될 수 있는 것인지 여부에 대한 정보, 또는 변경 가능한 신의 시점 리스트 등을 포함할 수 있다.Also, the scene parameter may include a parameter related to the viewpoint of the scene. For example, the scene parameter may include information related to the viewpoint of the currently displayed scene, information on whether the viewpoint of the scene can be changed, or a list of viewpoints of the scene that can be changed.
멀티 모달리티 인식부(120)는 신을 제어하기 위한 적어도 두 개의 모달리티 입력들을 인식할 수 있다.The
도면에 표시하지 않았으나, 멀티 모달리티 인식부(120)는 센서로부터 센서 데이터를 수신하고, 수신된 센서 데이터에 기초하여 적어도 두 개의 모달리티 입력들을 인식할 수 있다. 여기서, 센서는 오브젝트를 촬영하는 이미지 센서, 오브젝트까지의 거리를 측정하는 깊이 센서, 또는 음성 데이터를 획득하는 마이크 등을 포함할 수 있다.Although not shown in the drawing, the
멀티 모달리티 인식부(120)는 수신된 센서 데이터를 이용하여 멀티 모달리티 입력을 인식하기 위한 알고리즘을 수행할 수 있다. 일 실시예에 따르면, 멀티 모달리티 인식부(120)는 해당 알고리즘이 기술된 프로그램이 수행되는 프로세서, 또는 해당 알고리즘을 수행하기 위한 모듈들로 구성된 SoC(System on Chip) 등으로 구현될 수 있다.The
멀티 모달리티 인식부(120)는 시선 인식부(121), 손가락 끝 인식부(122), 손 자세 인식부(123), 손 동작 인식부(124), 또는 음성 인식부(125) 중 적어도 하나를 포함할 수 있다.The
여기서, 시선 인식부(121)는 이용자의 시선을 인식할 수 있다. 경우에 따라, 시선 인식부(121)는 이용자의 시선 방향 또는 신 내에서 이용자의 시선이 향하는 위치 등을 인식할 수 있다. 시선 인식부(121)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 시선을 인식할 수 있다. 또한, 시선 인식부(121)는 이용자의 눈의 위치나 이용자의 눈의 오리엔테이션 등을 감지할 수 있다. 이 때, 시선 인식부(121)는 인터페이싱 장치(100)를 기준으로 하는 상대 좌표 또는 이용자가 위치하는 3차원 공간을 나타내는 절대 좌표를 이용할 수 있다.Here, the
손가락 끝 인식부(122)는 이용자의 손가락 끝을 인식할 수 있다. 마찬가지로, 손가락 끝 인식부(122)는 이용자의 손가락 끝이 가리키는 방향 또는 신 내에서 이용자의 손가락 끝이 가리키는 위치 등을 인식할 수 있다. 손가락 끝 인식부(122)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 손가락 끝을 인식할 수 있다. 또한, 손가락 끝 인식부(122)는 이용자의 양 손의 위치들 및 열 손가락 끝의 위치들을 감지할 수 있다. 이 때, 손가락 끝 인식부(122)는 인터페이싱 장치(100)를 기준으로 하는 상대 좌표 또는 이용자가 위치하는 3차원 공간을 나타내는 절대 좌표를 이용할 수 있다.The
손 자세 인식부(123)는 이용자의 손 자세를 인식할 수 있다. 예를 들어, 손 자세 인식부(123)는 이용자의 손이 가위 자세, 바위 자세, 또는 보 자세를 취하고 있는지 여부를 인식할 수 있다. 손 자세 인식부(123)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 손 자세를 인식할 수 있다. 또는, 손 자세 인식부(123)는 이용자의 손이 집게 손가락만 펴고 포인팅하기 위한 자세를 취하고 있는지 여부, 엄지 손가락과 집게 손가락을 이용하여 펜을 쥐고 있는 듯한 자세를 취하고 있는지 여부 등을 인식할 수 있다. The hand
이 때, 손 자세 인식부(123)는 미리 구비된 손 자세 데이터베이스를 이용하여 이용자의 손 자세를 인식할 수 있다. 예를 들어, 손 자세 인식부(123)는 손 자세 데이터베이스에 저장된 복수의 손 자세들 중 감지된 이용자의 손 자세와 가장 유사한 손 자세를 선택함으로써, 이용자의 손 자세를 인식할 수 있다. 이 경우, 손 자세 인식부(123)는 선택된 손 자세의 타입을 출력할 수 있다.In this case, the hand
손 동작 인식부(124)는 이용자의 손 동작을 인식할 수 있다. 예를 들어, 손 동작 인식부(124)는 이용자의 손의 움직임 패턴을 인식할 수 있다. 경우에 따라, 손 동작 인식부(124)는 이용자의 손이 손목을 축으로 회전하는 움직임, 이용자의 손이 3차원 공간 상 특정 점을 기준으로 원 운동하는 움직임, 이용자의 손이 3차원 공간에서 이동하는 움직임 등을 인식할 수 있다. 손 동작 인식부(124)는 이미지 센서로부터 수신된 이미지 데이터 또는 깊이 센서로부터 수신된 깊이 데이터를 처리함으로써, 이용자의 손 동작을 인식할 수 있다.The hand motion recognition unit 124 may recognize a user's hand motion. For example, the hand motion recognition unit 124 may recognize a user's hand motion pattern. In some cases, the hand motion recognition unit 124 may perform a motion in which the user's hand rotates around the wrist, a motion in which the user's hand makes a circular motion based on a specific point in the three-dimensional space, and the user's hand in a three-dimensional space. You can recognize moving movements, etc. The hand motion recognition unit 124 may recognize a user's hand motion by processing image data received from the image sensor or depth data received from the depth sensor.
이 때, 손 동작 인식부(124)는 미리 구비된 손 동작 데이터베이스를 이용하여 이용자의 손 동작을 인식할 수 있다. 예를 들어, 손 동작 인식부(124)는 손 동작 데이터베이스에 저장된 복수의 손 동작들 중 감지된 이용자의 손 동작과 가장 유사한 손 동작을 선택함으로써, 이용자의 손 동작을 인식할 수 있다. 이 경우, 손 동작 인식부(124)는 선택된 손 동작의 타입을 출력할 수 있다.In this case, the hand motion recognition unit 124 may recognize a user's hand motion using a hand motion database provided in advance. For example, the hand motion recognition unit 124 may recognize the user's hand motion by selecting a hand motion most similar to the detected user's hand motion among a plurality of hand motions stored in the hand motion database. In this case, the hand motion recognition unit 124 may output the selected hand motion type.
음성 인식부(125)는 이용자의 음성을 인식할 수 있다. 이 경우, 음성 인식부(125)는 이용자의 음성을 인식하고, 인식된 내용을 텍스트 스트링의 형태로 출력할 수 있다. 음성 인식부(125)는 마이크로부터 수신된 음성 데이터를 처리함으로써, 이용자의 음성을 인식할 수 있다.The
신 제어 정보 생성부(130)는 신 파라미터 획득부(110)에 의해 획득된 신 파라미터 및 멀티 모달리티 인식부(120)에 의해 인식된 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성할 수 있다.The scene control
여기서, 신 제어 정보는 신에 특화된 제어 명령으로, 신에 포함된 객체 또는 신 자체의 시점 등을 제어하기 위한 정보를 포함할 수 있다.Here, the scene control information is a control command specific to a scene, and may include information for controlling an object included in the scene or a viewpoint of the scene itself.
예를 들어, 신 제어 정보는 신 내 특정 위치와 관련된 정보를 포함하는 위치 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 위치 요소를 이용하여, 이용자에 의해 제어되는 대상 객체를 특정할 수 있다. 경우에 따라, 위치 요소는 3차원 좌표 또는 2차원 좌표 등으로 표현될 수 있다.For example, the scene control information may include a location element including information related to a specific location in the scene. The
또한, 신 제어 정보는 위치 요소가 가리키는 특정 위치에 위치하는 객체의 변형과 관련된 정보를 포함하는 변형 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 변형 요소를 이용하여, 위치 요소에 의해 특정된 대상 객체의 변형을 제어할 수 있다. In addition, the scene control information may include a transformation element including information related to transformation of an object located at a specific position indicated by the position element. The
이 때, 신 표현 장치(150)는 변형 요소에 기초하여 대상 객체를 이동시키거나, 대상 객체를 회전시키거나, 대상 객체를 확대 또는 축소시킬 수 있다. 보다 구체적으로, 변형 요소가 대상 객체를 신 내의 다른 지점으로 이동시키는 명령을 포함하는 경우, 신 표현 장치(150)는 대상 객체를 해당 지점으로 이동시킬 수 있다. 또는, 변형 요소가 대상 객체를 2배 스케일링하는 명령을 포함하는 경우, 신 표현 장치(150)는 대상 객체를 2배만큼 확대시킬 수 있다.In this case, the
또한, 신 제어 정보는 위치 요소가 가리키는 특정 위치에 위치하는 객체의 선택 여부와 관련된 정보를 포함하는 선택 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 선택 요소를 이용하여, 위치 요소에 의해 특정된 대상 객체의 선택 여부를 제어할 수 있다. 예를 들어, 변형 요소가 대상 객체를 선택하는 지시자를 포함하는 경우 신 표현 장치(150)는 대상 객체가 선택되도록 신을 제어하고, 그렇지 않은 경우 신 표현 장치(150)는 대상 객체가 선택되지 않도록 신을 제어할 수 있다.In addition, the scene control information may include a selection element including information related to selection of an object located at a specific location indicated by the location element. The
또한, 신 제어 정보는 신의 시점과 관련된 정보를 포함하는 시점 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 시점 요소를 이용하여, 신 자체의 시점을 변경할 수 있다.In addition, the scene control information may include a viewpoint element including information related to the viewpoint of the scene. The
또한, 신 제어 정보는 이용자를 식별하는 식별자와 관련된 정보를 포함하는 이용자 식별 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 이용자 식별 요소를 이용하여, 신을 제어하고자 하는 이용자를 식별할 수 있다.In addition, the new control information may include a user identification element including information related to an identifier for identifying the user. The
또한, 신 제어 정보는 위치 요소가 가리키는 특정 위치와 연관된 복수의 포인트들과 관련된 정보를 포함하는 연관 포인트 요소를 포함할 수 있다. 신 표현 장치(150)는 신 제어 정보에 포함된 연관 포인트 요소를 추가적으로 이용하여, 대상 객체를 제어하는 동작을 보조(assist)할 수 있다.In addition, the scene control information may include an associated point element including information related to a plurality of points associated with a specific location indicated by the location element. The
경우에 따라, 신 제어 정보는 유효 포인팅 해상도(effective pointing resolution)와 관련된 정보를 더 포함할 수 있다. 신 표현 장치(150)는 유효 포인팅 해상도와 관련된 정보를 이용하여 신 내 객체의 포인팅 제어를 보조할 수 있다.In some cases, the scene control information may further include information related to an effective pointing resolution. The
신 제어 정보는 신에 특화된 명령을 위하여 표 1과 같은 어드밴스드 유저 인터페이스 디바이스 데이터 포맷(Advanced UI Device Data format)으로 구성될 수 있다.The scene control information may be configured in an Advanced UI Device Data format as shown in Table 1 for a scene-specific command.
SFVec3f position
SFNode Transform3D
SFBool Select
SFNode Viewpoint
SFString UserID
MFVec3f AssociatedPoints[N]
]]AUIDataFrame [[
SFVec3f position
SFNode Transform3D
SFBool Select
SFNode Viewpoint
SFString UserID
MFVec3f AssociatedPoints[N]
]]
여기서, 위치 요소(position)는 BIFS(Binary Format for Scene) 설정인 BifsConfig에 규정된 3차원 스크린 좌표, 픽셀 또는 미터를 표현하는 SFVec3f(Single Field 3rd order Vector w/floating point representation) 타입일 수 있다.Here, the position element may be a single field 3 rd order vector w/floating point representation (SFVec3f) type that expresses 3D screen coordinates, pixels, or meters specified in BifsConfig, which is a binary format for scene (BIFS) setting. .
또한, 변형 요소(Transform3D)는 이용자에 의해 의도된 기하학적 트랜스포메이션(geometrical transformation)을 표현하는 SFNode(Single Field Node) 타입일 수 있다.In addition, the transform element (Transform3D) may be a single field node (SFNode) type expressing a geometric transformation intended by a user.
또한, 선택 요소(Select)는 위치 요소에 의해 특정되는 신 오브젝트(scene object)가 이용자에 의해 선택되는 경우 참(true)을 나타내는 SFBool(Single Field Boolean) 타입일 수 있다.In addition, the selection element (Select) may be a single field Boolean (SFBool) type indicating true when a scene object specified by a location element is selected by a user.
또한, 시점 요소(Viewpoint)는 이용자에 의해 의도된 신의 시점을 표현하는 SFNode(Single Field Node) 타입일 수 있다.In addition, the viewpoint element (Viewpoint) may be a single field node (SFNode) type representing the viewpoint of the scene intended by the user.
또한, 이용자 식별 요소(UserID)는 각각의 이용자를 식별하는 스트링 변수(string variable)를 표현하는 SFString(Single Field String) 타입일 수 있다.In addition, the user identification element (UserID) may be a single field string (SFString) type representing a string variable identifying each user.
또한, 연관 포인트 요소(Associated Points)는 위치 요소와 연관된 추가적인 포인트들의 세트(set)를 표현하는 MFVec3f(Multiple Fields 3rd order Vectors w/floating point representation) 타입일 수 있다.
In addition, the associated point elements may be of MFVec3f (Multiple Fields 3rd order Vectors w/floating point representation) type representing a set of additional points associated with a location element.
도 2a 내지 도 2c는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 설명하기 위한 도면이다.2A to 2C are diagrams for explaining a user interface utilizing multi-modality according to an exemplary embodiment.
도 2a를 참조하면, 일 실시예에 따른 인터페이싱 장치(220)는 시선 모달리티를 이용하여 포인팅 제어를 할 수 있다.Referring to FIG. 2A, the
예를 들어, 인터페이싱 장치(220)는 이용자(210)의 시선을 감지함으로써, 디스플레이 중인 복수의 객체들 중 이용자(210)가 포인팅하고자 하는 객체(221)를 결정할 수 있다.For example, the
나아가, 인터페이싱 장치(220)는 이용자(210)가 포인팅된 객체(221)를 미리 정해진 시간(예를 들어, 3초)동안 지속적으로 주시하는 동작이나 빠르게 눈을 두 번 깜박이는 동작 등을 감지함으로써, 포인팅되고 있는 객체(221)가 선택되도록 신을 제어할 수 있다.Furthermore, the
물론 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.Of course, the above-described operations are only exemplary, and the configuration of the multi-modality that can be utilized by the
도 2b를 참조하면, 일 실시예에 따른 인터페이싱 장치(220)는 양 손 모달리티를 이용하여 트랜스포메이션 제어를 할 수 있다.Referring to FIG. 2B, the
예를 들어, 인터페이싱 장치(220)는 이용자의 양 손(215)이 3차원 공간 상에서 움직이는 동작을 인식함으로써, 포인팅된 객체(221)를 이동, 회전, 확대 또는 축소시킬 수 있다.For example, the
이용자는 한 손으로 물건을 움켜쥐는 것과 같은 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 선택할 수 있다.The user can perform an action such as grabbing an object with one hand, and the
또는, 이용자는 한 손으로 물건을 움켜쥐는 것과 같은 동작을 취한 이후, 그 손을 특정 방향으로 움직이는 동작을 취할 수 있다. 이 경우, 인터페이싱 장치(220)는 이러한 동작들을 인식함으로써 포인팅된 객체(221)를 해당 방향으로 이동시킬 수 있다.Alternatively, the user may perform an action such as grasping an object with one hand, and then move the hand in a specific direction. In this case, the
또는, 이용자는 양 손으로 차량 운전대를 회전시키는 것과 같은 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 회전시킬 수 있다.Alternatively, the user may perform an operation such as rotating the vehicle steering wheel with both hands, and the
또는, 이용자는 손목을 축으로 한 손을 회전시키는 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 회전시킬 수 있다.Alternatively, the user may perform an operation of rotating one hand around the wrist, and the
또는, 이용자는 양 손의 손바닥을 마주보게 하면서 양 손 사이의 간격을 좁히거나 벌리는 동작을 취할 수 있고, 인터페이싱 장치(220)는 이러한 동작을 인식함으로써 포인팅된 객체(221)를 축소시키거나 확대시킬 수 있다Alternatively, the user may take an action to narrow or widen the gap between both hands while facing the palms of both hands, and the
물론 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.Of course, the above-described operations are only exemplary, and the configuration of the multi-modality that can be utilized by the
이 때, 인터페이싱 장치(220)는 양 손 모달리티와 도 2a의 시선 모달리티를 함께 이용할 수 있다.In this case, the
예를 들어, 인터페이싱 장치(220)는 도 2a의 시선 모달리티를 통해 이용자(210)의 시선을 감지하여 객체(221)를 포인팅하고, 양 손 모달리티를 통해 이용자의 양 손의 움직임을 인식하여 해당 객체(221)의 선택, 이동, 회전, 확대 또는 축소 등을 제어할 수 있다.For example, the
물론 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.Of course, the above-described operations are only exemplary, and the configuration of the multi-modality that can be utilized by the
도 2c를 참조하면, 일 실시예에 따른 인터페이싱 장치(220)는 시선 모달리티와 음성 모달리티를 함께 이용하여 트랜스포메이션 제어를 할 수 있다.Referring to FIG. 2C, the
예를 들어, 인터페이싱 장치(220)는 시선 모달리티를 통해 이용자(210)의 시선을 감지하여 객체(221)를 선택하고, 음성 모달리티를 통해 이용자(210)의 음성을 인식하여 해당 객체(221)의 선택, 이동, 회전, 확대 또는 축소 등을 제어할 수 있다.For example, the
물론 도 2a 내지 도 2c를 통하여 전술한 동작들은 예시적인 사항들에 불과할 뿐, 인터페이싱 장치(220)에 의해 활용될 수 있는 멀티 모달리티의 구성을 한정하지 아니한다.
Of course, the operations described above with reference to FIGS. 2A to 2C are merely exemplary, and the configuration of the multi-modality that can be utilized by the
도 3a 내지 도 3b는 일 실시예에 따른 이용자 맞춤 파라미터를 이용하는 인터페이싱 장치를 나타낸 블록도이다.3A to 3B are block diagrams illustrating an interfacing device using a user-customized parameter according to an exemplary embodiment.
도 3a를 참조하면, 일 실시예에 따른 인터페이싱 장치(300)는 이용자 맞춤 파라미터(user customization parameter) 획득부(340)를 더 포함할 수 있다. 여기서, 신 파라미터 획득부(310), 멀티 모달리티 인식부(320), 및 신 제어 정보 생성부(330)에는 도 1을 통하여 기술한 사항들이 그대로 적용될 수 있다.Referring to FIG. 3A, the
이용자 맞춤 파라미터 획득부(340)는 이용자 맞춤 파라미터를 획득할 수 있다.The user-customized
여기서, 이용자 맞춤 파라미터는 특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들을 해당 이용자의 선호도에 따른 모달리티들로 매핑하는 매핑 정보를 포함할 수 있다.Here, the user-customized parameter may include mapping information for mapping a plurality of predetermined control aspects of a scene to modalities according to the user's preference in response to a specific user.
표 2를 참조하면, 미리 정해진 복수의 신의 제어 양상들은 포인팅, 선택, 이동, 회전, 확대, 축소, 시점 변경 등을 포함할 수 있다.Referring to Table 2, control aspects of a plurality of predetermined scenes may include pointing, selection, movement, rotation, enlargement, reduction, and viewpoint change.
예를 들어, 인터페이싱 장치(300)가 이용자 A에 대응되는 제1 이용자 맞춤 파라미터를 획득하는 경우를 가정하자. 이 경우, 제1 이용자 맞춤 파라미터는 이용자 A에 의해 선호되는 모달리티 또는 모달리티의 조합으로 신을 제어할 수 있도록 하는 매핑 정보를 포함할 수 있다.For example, assume that the
보다 구체적으로, 제1 이용자 맞춤 파라미터는 신에 포함된 객체의 포인팅 제어를 위하여 시선 모달리티를 이용하고, 선택 제어를 위하여 눈의 깜박임 모달리티를 이용하며, 이동 제어, 회전 제어, 스케일링 제어 및 시점 변경 제어를 위하여 음성 모달리티를 이용한다는 매핑 정보를 포함할 수 있다.More specifically, the first user-customized parameter uses gaze modality for pointing control of objects included in scenes, eye blink modality for selection control, and movement control, rotation control, scaling control, and viewpoint change control. For this, mapping information indicating that the voice modality is used may be included.
제1 이용자 맞춤 파라미터는 이용자 A에 의해 사전에 설정될 수 있고, 인터페이싱 장치(300)는 이러한 이용자 A에 특화된 파라미터를 획득함으로써 이용자 A에 특화된 유저 인터페이스를 제공할 수 있다.The first user customized parameter may be set in advance by user A, and the
또한, 인터페이싱 장치(300)가 이용자 B에 대응되는 제2 이용자 맞춤 파라미터를 획득하는 경우를 가정하자. 이 경우, 제2 이용자 맞춤 파라미터는 이용자 B에 의해 선호되는 모달리티 또는 모달리티의 조합으로 신을 제어할 수 있도록 하는 매핑 정보를 포함할 수 있다.In addition, it is assumed that the
이 경우, 제2 이용자 맞춤 파라미터는 제1 이용자 맞춤 파라미터와 상이한 매핑 정보를 포함할 수 있다. 예를 들어, 제2 이용자 맞춤 파라미터는 신에 포함된 객체의 포인팅 제어를 위하여 손가락 끝 모달리티를 이용하고, 선택 제어를 위하여 손의 움켜쥠 등 손 동작 모달리티를 이용하며, 이동 제어를 위하여 손의 이동 등 손 동작 모달리티를 이용하고, 회전 동작을 위하여 손의 회전 등 손 동작 모달리티를 이용하며, 스케일링 제어를 위하여 음성 모달리티를 이용하고, 시점 변경 제어를 위하여 스크린을 기준으로 하는 이용자의 머리의 상대적 위치 등 머리 위치 모달리티를 이용한다는 매핑 정보를 포함할 수 있다.In this case, the second user customized parameter may include mapping information different from the first user customized parameter. For example, the second user-customized parameter uses a fingertip modality for pointing control of an object included in a scene, a hand motion modality such as hand grip for selection control, and a hand movement for movement control, etc. Hand motion modality is used, hand motion modality such as hand rotation is used for rotational motion, voice modality is used for scaling control, and the relative position of the user's head relative to the screen is used for viewpoint change control. Mapping information indicating that location modality is used may be included.
마찬가지로 제2 이용자 맞춤 파라미터는 이용자 B에 의해 사전에 설정될 수 있고, 인터페이싱 장치(300)는 이러한 이용자 B에 특화된 파라미터를 획득함으로써 이용자 B에 특화된 유저 인터페이스를 제공할 수 있다.Similarly, the second user-customized parameter may be set in advance by the user B, and the
신 제어 정보 생성부(330)는 이용자 맞춤 파라미터 획득부(340)에 의해 획득된 이용자 맞춤 파라미터에 기초하여, 멀티 모달리티 인식부(320)에 의해 인식되는 적어도 두 개의 모달리티 입력들을 해석할 수 있다.The new control
이로 인하여, 일 실시예에 따른 인터페이싱 장치(300)는 동일한 모달리티 입력들이 인식되더라도, 이용자 맞춤 파라미터에 따라 상이한 신 제어 정보를 생성할 수 있다.For this reason, even if the same modality inputs are recognized, the
도면에 표시하지는 않았으나, 다른 실시예에 따른 인터페이싱 장치(300)는 식별부를 더 포함할 수 있다.Although not shown in the drawings, the
이 경우, 식별부는 인터페이싱 장치(300)를 이용하는 이용자를 식별할 수 있다. 식별부가 이용자를 식별하는 방식은 다양하게 구현될 수 있다. 예를 들어, 식별부는 이용자의 로그인 정보를 이용하여 이용자를 식별할 수 있다. 또는, 식별부는 이용자의 얼굴, 홍채, 지문 등 생체 정보를 활용하여 이용자를 식별할 수 있다.In this case, the identification unit may identify a user who uses the
이용자 맞춤 파라미터 획득부(340)는 식별부에 의해 식별된 이용자에 대응되는 이용자 맞춤 파라미터를 획득할 수 있다. 경우에 따라, 이용자 맞춤 파라미터 획득부(340)는 유선 네트워크 또는 무선 네트워크를 통해 접속 가능한 서버로부터 이용자 맞춤 파라미터를 획득할 수 있다.The user-customized
이로 인하여, 일 실시예에 따른 인터페이싱 장치(300)가 이용되는 시스템 하에서, 이용자들은 자신만의 인터페이싱 설정을 다양한 환경에서 동일하게 이용할 수 있다.For this reason, under a system in which the
예를 들어, 이용자 C는 회사에서 프리젠테이션을 위한 제1 인터페이싱 장치를 이용하고, 집에서 영화 감상을 위한 제2 인터페이싱 장치를 이용하며, 차 내에서 네비게이션 조작을 위한 제3 인터페이싱 장치를 이용할 수 있다.For example, user C may use a first interfacing device for a presentation in a company, a second interfacing device for watching a movie at home, and a third interfacing device for navigation operation in a car. .
일 실시예에 따르면, 제1 인터페이싱 장치, 제2 인터페이싱 장치, 및 제3 인터페이싱 장치는 각각 이용자 C를 식별하고, 이용자 C에 특화된 이용자 설정 파라미터를 이용할 수 있다. 따라서, 이용자 C는 자신에게 최적화된 입력 방식을 이용하여, 다양한 인터페이싱 장치들을 동일한 방식으로 조작할 수 있다.According to an embodiment, the first interfacing device, the second interfacing device, and the third interfacing device may each identify user C and use a user setting parameter specialized for user C. Accordingly, user C can operate various interfacing devices in the same manner by using an input method optimized for him.
이로 인하여, 일 실시예에 따른 인터페이싱 장치는 이용자가 선호하는 유저 인터페이스 동작을 커스터마이즈(customize)하고, 다양한 신에 필요한 명령을 자동으로 생성하는 기술을 제공할 수 있다. 그 결과, 이용자는 다양한 신 또는 다양한 환경에서 매번 필요한 동작 종류를 인식할 필요 없이, 이용자에게 익숙한 동작을 취함으로써 원하는 조작을 수행할 수 있다.Accordingly, the interfacing device according to an embodiment may provide a technology for customizing a user interface operation preferred by a user and automatically generating commands necessary for various scenes. As a result, the user can perform a desired operation by taking an operation familiar to the user without having to recognize the type of operation required each time in various scenes or various environments.
이를 위하여, 도 3b를 참조하면, 일 실시예에 따른 신 제어 정보 생성부(330)는 모달리티 선택부를 포함할 수 있다.To this end, referring to FIG. 3B, the scene control
모달리티 선택부는 이용자 맞춤 파라미터 획득부(340)에 의해 획득된 이용자 맞춤 파라미터를 이용하여 포인팅 용 모달리티, 트랜지션 용 모달리티, 로테이션 용 모달리티, 스케일링 용 모달리티, 및 셀렉트 용 모달리트 등을 선택할 수 있다.The modality selection unit may select a pointing modality, a transition modality, a rotation modality, a scaling modality, and a select modality, using the user-customized parameter obtained by the user-customized
나아가, 신 제어 정보 생성부는 모달리티 선택부에 의해 선택된 포인팅 용 모달리티, 트랜지션 용 모달리티, 로테이션 용 모달리티, 스케일링 용 모달리티, 및 셀렉트 용 모달리티에 따라 모달리티 입력들을 해석할 수 있다.
Furthermore, the scene control information generation unit may interpret modality inputs according to the modality for pointing, modality for transition, modality for rotation, modality for scaling, and modality for select selected by the modality selector.
도 4는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 시스템을 설명하기 위한 도면이다.4 is a diagram for explaining an interfacing system that provides a user interface utilizing multi-modality according to an embodiment.
도 4를 참조하면, 일 실시예에 따른 인터페이싱 장치(410)는 신 표현 장치(420) 및 이용자(430) 사이에서 유저 인터페이스를 제공할 수 있다. 이하, 인터페이싱 장치(410)는 이용자(430)의 스마트 폰인 경우를 가정하자.Referring to FIG. 4, the
예를 들어, 인터페이싱 장치(410)는 제1 카메라(411), 제2 카메라(413), 블루투스 트랜시버(412), 마이크(414), 인터넷 통신부(415), 및 제어부(416)를 포함할 수 있다.For example, the
인터페이싱 장치(410)는 제1 카메라(411)를 이용하여 신 표현 장치(420)의 위치를 파악하고, 제2 카메라(412)를 이용하여 이용자(430)의 위치를 파악할 수 있다. 나아가, 인터페이싱 장치(410)는 신 표현 장치(420)와 이용자(430) 사이의 상대적인 위치를 계산할 수 있다.The
경우에 따라, 인터페이싱 장치(410)는 제2 카메라(412)를 이용하여 이용자(430)의 얼굴 위치를 인식하고, 그 정보를 신 표현 장치(420)로 전송할 수 있다. 이러한 정보에 기초하여, 신 표현 장치(420)는 이용자(430)에게 입체 영상을 제공하기 위한 패럴렉스 배리어(parallex barrier) 동작 등을 수행할 수 있다.In some cases, the
이 때, 인터페이싱 장치(410)는 블루투스 트랜시버(412)를 이용하여 신 표현 장치(420)와 데이터를 주고 받을 수 있다. 물론 인터페이싱 장치(410)는 블루투스 기법 이외에도 다양한 근거리 통신(near filed communication) 기법을 이용할 수 있다. 도면에 도시하지 않았으나, 다른 실시예에 따른 인터페이싱 장치(410)는 클라우딩 환경을 통하여 신 표현 장치(420)와 데이터를 주고 받을 수 있다.In this case, the
또한, 인터페이싱 장치(410)는 제2 카메라(413)를 이용하여 이용자(430)의 시선을 인식하거나, 이용자(430)의 손 동작 등을 인식할 수 있다. 인터페이싱 장치(410)는 마이크(414)를 이용하여 이용자(430)의 음성을 인식할 수 있다.In addition, the
이 때, 인터페이싱 장치(410)는 제2 카메라(413)를 이용하여 이용자(430)를 식별하고, 식별된 이용자(430)에 대응되는 이용자 맞춤 파라미터를 원격에 위치된 서버(440)로부터 수신할 수 있다. 인터페이싱 장치(410)는 인터넷 통신부(415)를 이용하여 서버(440)에 접속할 수 있다.At this time, the
제어부(416)는 전술한 동작들을 제어할 수 있다. 특히, 제어부(416)는 이용자 맞춤 파라미터에 따라 이용자(430)의 모달리티 입력들을 해석하고, 신 제어 정보를 생성할 수 있다.The
인터페이싱 장치(410)는 생성된 신 제어 정보를 신 표현 장치(420)로 전송할 수 있다. 신 표현 장치(420)는 신 제어 정보에 기초하여 신에 포함된 객체 또는 신 자체의 시점 등을 제어할 수 있다.The
이 때, 인터페이싱 장치(410)는 지속적으로 센싱 데이터 또는 인식 결과를 신 표현 장치(420)로 전송하는 대신, 신 표현 장치(420)가 신을 제어하는데 필요한 제어 정보를 생성하여 해당 정보만을 전송할 수 있다. 이로 인하여, 인터페이싱 장치(410)는 유저 인터페이스를 제공하기 위해 송수신되는 데이터의 양을 최적화시키는 기술을 제공할 수 있다.At this time, the
도 4에 도시된 각 모듈들에는 도 1 내지 도 3b를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
Since matters described through FIGS. 1 to 3B may be applied to each of the modules shown in FIG. 4, a more detailed description will be omitted.
도 5는 일 실시예에 따른 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 방법을 나타낸 동작 흐름도이다.5 is a flowchart illustrating an interfacing method for providing a user interface utilizing multi-modality according to an exemplary embodiment.
도 5를 참조하면, 일 실시예에 따른 인터페이싱 방법은 멀티 모달리티를 활용한 유저 인터페이스를 제공할 수 있다.Referring to FIG. 5, the interfacing method according to an embodiment may provide a user interface utilizing multi-modality.
예를 들어, 일 실시예에 따른 인터페이싱 방법은 단계(510)에서 신과 관련된 정보를 포함하는 신 파라미터를 획득할 수 있다. 인터페이싱 방법은 단계(520)에서 이용자로부터 입력되는 적어도 두 개의 모달리티 입력들을 인식할 수 있다. 인터페이싱 방법은 단계(540)에서 신 파라미터 및 적어도 두 개의 모달리티 입력들에 기초하여 신 제어 정보를 생성할 수 있다.For example, in the interfacing method according to an embodiment, in
경우에 따라, 인터페이싱 방법은 단계(530)에서 이용자 맞춤 파라미터를 획득할 수 있다. 이 경우, 인터페이싱 방법은 단계(540)에서 이용자 맞춤 파라미터에 기초하여 이용자로부터 입력되는 적어도 두 개의 모달리티 입력들을 해석할 수 있다.In some cases, the interfacing method may acquire user-customized parameters in
도 5에 도시된 각 단계들에는 도 1 내지 도 4를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
Since the matters described through FIGS. 1 to 4 may be applied to each of the steps shown in FIG. 5 as they are, a more detailed description will be omitted.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.
Claims (17)
이용자를 식별하고, 상기 이용자와 인터액션(interaction)할 수 있는 신(scene)의 특성과 관련된 정보를 포함하는 신 파라미터(scene parameter)를 획득하고, 상기 신 파라미터가 적어도 두 개의 모달리티 입력들에 대응함을 지시하는 이용자 맞춤 파라미터를 획득하며,상기 신 파라미터 및 상기 이용자 맞춤 파라미터에 기초하여 적어도 두 개의 모달리티 입력들을 해석함으로써, 신 제어 정보(scene control information)를 생성하고, 상기 신 제어 정보에 기초하여, 상기 신에 포함된 적어도 하나의 객체를 선택하고, 변형을 제어하는 적어도 하나의 프로세서
를 포함하는 인터페이싱 장치.
In an interfacing device that provides a user interface utilizing multi-modality,
To identify a user and obtain a scene parameter including information related to a characteristic of a scene capable of interacting with the user, and that the scene parameter corresponds to at least two modality inputs. Acquires a user-customized parameter indicating, and generates scene control information by analyzing at least two modality inputs based on the scene parameter and the user-customized parameter, and based on the scene control information, the At least one processor that selects at least one object included in the scene and controls transformation
Interfacing device comprising a.
상기 신 파라미터는
상기 신에 포함된 적어도 하나의 객체(object)의 크기와 관련된 파라미터;
상기 적어도 하나의 객체의 위치와 관련된 파라미터;
상기 적어도 하나의 객체의 이동 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 회전 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 스케일 제어와 관련된 파라미터; 및
상기 신의 시점과 관련된 파라미터
중 적어도 하나를 포함하는 인터페이싱 장치.The method of claim 1,
The scene parameter is
A parameter related to the size of at least one object included in the scene;
A parameter related to the location of the at least one object;
A parameter related to movement control of the at least one object;
A parameter related to rotation control of the at least one object;
A parameter related to scale control of the at least one object; And
Parameters related to the viewpoint of the god
Interfacing device comprising at least one of.
상기 프로세서는
이용자의 시선, 이용자의 손가락 끝, 이용자의 손 자세, 이용자의 손 동작, 또는 이용자의 음성을 인식하는
인터페이싱 장치.The method of claim 1,
The processor is
Recognizing the user's gaze, the user's fingertips, the user's hand posture, the user's hand motion, or the user's voice
Interfacing device.
상기 신 제어 정보는
상기 신 내 특정 위치와 관련된 정보를 포함하는 위치 요소;
상기 특정 위치에 위치하는 객체의 변형과 관련된 정보를 포함하는 변형 요소;
상기 특정 위치에 위치하는 객체의 선택 여부와 관련된 정보를 포함하는 선택 요소;
상기 신의 시점과 관련된 정보를 포함하는 시점 요소;
이용자를 식별하는 식별자와 관련된 정보를 포함하는 이용자 식별 요소; 및
상기 특정 위치와 연관된 복수의 포인트들과 관련된 정보를 포함하는 연관 포인트 요소
중 적어도 하나를 포함하는 인터페이싱 장치.The method of claim 1,
The scene control information is
A location element including information related to a specific location in the scene;
A transformation element including information related to transformation of the object located at the specific position;
A selection element including information related to selection of an object located at the specific location;
A viewpoint element including information related to the viewpoint of the scene;
A user identification element comprising information related to an identifier identifying a user; And
Association point element including information related to a plurality of points associated with the specific location
Interfacing device comprising at least one of.
상기 프로세서는
상기 이용자 맞춤 파라미터에 기초하여 상기 적어도 두 개의 모달리티 입력들의 조합을 해석하는
인터페이싱 장치.
The method of claim 1,
The processor is
Interpreting a combination of the at least two modality inputs based on the user customization parameter
Interfacing device.
상기 이용자 맞춤 파라미터는
특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들 각각을 상기 특정 이용자의 선호도에 따라 복수의 모달리티 입력들 중 어느 하나 또는 상기 복수의 모달리티 입력들로부터 선택 가능한 둘 이상의 조합으로 매핑하는 매핑 정보
를 포함하는 인터페이싱 장치.The method of claim 5,
The user-customized parameter is
Mapping information for mapping each of a plurality of predetermined control aspects of a plurality of scenes in response to a specific user to any one of a plurality of modality inputs or a combination of two or more selectable from the plurality of modality inputs according to the preference of the specific user
Interfacing device comprising a.
상기 프로세서는
이용자를 식별하고, 상기 상기 이용자 맞춤 파라미터는 상기 식별된 이용자에 대응되는
인터페이싱 장치.
The method of claim 5,
The processor is
Identify a user, and the user-customized parameter corresponds to the identified user
Interfacing device.
상기 프로세서는
센서를 통해 입력된 센서 데이터를 수신하고, 상기 수신된 센서 데이터에 기초하여 상기 적어도 두 개의 모달리티 입력들을 인식하는
인터페이싱 장치.
The method of claim 1,
The processor is
Receiving sensor data input through a sensor, and recognizing the at least two modality inputs based on the received sensor data
Interfacing device.
상기 프로세서는
상기 신을 표현(representation)하는 신 표현 장치와 통신하고, 통신 장치를 이용하여 상기 신 표현 장치로부터 상기 신 파라미터를 수신하며, 상기 통신 장치를 이용하여 상기 생성된 신 제어 정보를 상기 신 표현 장치로 송신하는
인터페이싱 장치.
The method of claim 1,
The processor is
Communicates with a scene representation device representing the scene, receives the scene parameter from the scene representation device using a communication device, and transmits the generated scene control information to the scene representation device using the communication device doing
Interfacing device.
상기 프로세서는
상기 신 제어 정보에 기초하여 상기 신을 제어하고, 상기 제어된 신을 표현하는
인터페이싱 장치.
The method of claim 9,
The processor is
Controlling the scene based on the scene control information, and expressing the controlled scene
Interfacing device.
이용자를 식별하는 단계;
상기 이용자와 인터액션(interaction)할 수 있는 신의 특성과 관련된 정보를 포함하는 신 파라미터를 획득하는 단계;
상기 신 파라미터가 적어도 두 개의 모달리티 입력들에 대응함을 지시하는 이용자 맞춤 파라미터를 획득하는 단계;
상기 신 파라미터 및 상기 이용자 맞춤 파라미터에 기초하여 적어도 두 개의 모달리티 입력들을 해석함으로써, 신 제어 정보를 생성하는 단계; 및
상기 신 제어 정보에 기초하여, 상기 신에 포함된 적어도 하나의 객체를 선택하고, 변형을 제어하는 단계
를 포함하는 인터페이싱 방법.
In the interfacing method that provides a user interface utilizing multi-modality,
Identifying a user;
Acquiring a scene parameter including information related to a characteristic of a scene capable of interacting with the user;
Obtaining a user-customized parameter indicating that the new parameter corresponds to at least two modality inputs;
Generating scene control information by analyzing at least two modality inputs based on the scene parameter and the user customized parameter; And
Selecting at least one object included in the scene and controlling transformation based on the scene control information
Interfacing method comprising a.
상기 신 제어 정보를 생성하는 단계는
상기 이용자 맞춤 파라미터에 기초하여 상기 적어도 두 개의 모달리티 입력들을 해석하는 단계; 및
상기 해석된 모달리티 입력들 및 상기 신 파라미터에 기초하여, 신 제어 정보를 생성하는 단계
를 포함하는 인터페이싱 방법.
The method of claim 11,
The step of generating the scene control information
Interpreting the at least two modality inputs based on the user customization parameter; And
Generating scene control information based on the analyzed modality inputs and the scene parameter
Interfacing method comprising a.
상기 이용자 맞춤 파라미터는
특정 이용자에 대응하여, 미리 정해진 복수의 신의 제어 양상들 각각을 상기 특정 이용자의 선호도에 따라 복수의 모달리티 입력들 중 어느 하나 또는 상기 복수의 모달리티 입력들로부터 선택 가능한 둘 이상의 조합으로 매핑하는 매핑 정보
를 포함하는 인터페이싱 방법.
The method of claim 11,
The user-customized parameter is
Mapping information for mapping each of a plurality of predetermined control aspects of a plurality of scenes in response to a specific user to any one of a plurality of modality inputs or a combination of two or more selectable from the plurality of modality inputs according to the preference of the specific user
Interfacing method comprising a.
상기 신 제어 정보는
상기 신 내 특정 위치와 관련된 정보를 포함하는 위치 요소;
상기 특정 위치에 위치하는 객체의 변형과 관련된 정보를 포함하는 변형 요소;
상기 특정 위치에 위치하는 객체의 선택 여부와 관련된 정보를 포함하는 선택 요소;
상기 신의 시점과 관련된 정보를 포함하는 시점 요소;
이용자를 식별하는 식별자와 관련된 정보를 포함하는 이용자 식별 요소; 및
상기 특정 위치와 연관된 복수의 포인트들과 관련된 정보를 포함하는 연관 포인트 요소
중 적어도 하나를 포함하는 인터페이싱 방법.The method of claim 11,
The scene control information is
A location element including information related to a specific location in the scene;
A transformation element including information related to transformation of the object located at the specific position;
A selection element including information related to selection of an object located at the specific location;
A viewpoint element including information related to the viewpoint of the scene;
A user identification element comprising information related to an identifier identifying a user; And
Association point element including information related to a plurality of points associated with the specific location
Interfacing method comprising at least one of.
상기 적어도 두 개의 모달리티 입력들을 인식하는 단계는
이용자의 시선을 인식하는 단계;
이용자의 손가락 끝을 인식하는 단계;
이용자의 손 자세를 인식하는 단계;
이용자의 손 동작을 인식하는 단계; 및
이용자의 음성을 인식하는 단계
중 적어도 하나를 포함하는 인터페이싱 방법.The method of claim 11,
Recognizing the at least two modality inputs
Recognizing the user's gaze;
Recognizing the user's fingertips;
Recognizing the user's hand posture;
Recognizing a user's hand motion; And
Step of recognizing the user's voice
Interfacing method comprising at least one of.
상기 신 파라미터는
상기 신에 포함된 적어도 하나의 객체의 크기와 관련된 파라미터;
상기 적어도 하나의 객체의 위치와 관련된 파라미터;
상기 적어도 하나의 객체의 이동 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 회전 제어와 관련된 파라미터;
상기 적어도 하나의 객체의 스케일 제어와 관련된 파라미터; 및
상기 신의 시점과 관련된 파라미터
중 적어도 하나를 포함하는 인터페이싱 방법.The method of claim 11,
The scene parameter is
A parameter related to the size of at least one object included in the scene;
A parameter related to the location of the at least one object;
A parameter related to movement control of the at least one object;
A parameter related to rotation control of the at least one object;
A parameter related to scale control of the at least one object; And
Parameters related to the viewpoint of the god
Interfacing method comprising at least one of.
A computer-readable recording medium on which a program for executing the method of any one of claims 11 to 16 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/046,017 US10133470B2 (en) | 2012-10-09 | 2013-10-04 | Interfacing device and method for providing user interface exploiting multi-modality |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261711359P | 2012-10-09 | 2012-10-09 | |
US61/711,359 | 2012-10-09 | ||
US201261713822P | 2012-10-15 | 2012-10-15 | |
US61/713,822 | 2012-10-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140045865A KR20140045865A (en) | 2014-04-17 |
KR102156175B1 true KR102156175B1 (en) | 2020-09-15 |
Family
ID=50653132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130067516A KR102156175B1 (en) | 2012-10-09 | 2013-06-13 | Interfacing device of providing user interface expoliting multi-modality and mehod thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102156175B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9583105B2 (en) * | 2014-06-06 | 2017-02-28 | Microsoft Technology Licensing, Llc | Modification of visual content to facilitate improved speech recognition |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040001100A1 (en) * | 2002-06-27 | 2004-01-01 | Alcatel | Method and multimode user interface for processing user inputs |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101341485B1 (en) * | 2009-11-11 | 2013-12-13 | 한국전자통신연구원 | System and method for real-sense broadcasting service using device cooperation |
KR101284561B1 (en) * | 2011-02-14 | 2013-07-11 | 충남대학교산학협력단 | System and method for multi-modality emotion recognition and recording medium thereof |
-
2013
- 2013-06-13 KR KR1020130067516A patent/KR102156175B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040001100A1 (en) * | 2002-06-27 | 2004-01-01 | Alcatel | Method and multimode user interface for processing user inputs |
Also Published As
Publication number | Publication date |
---|---|
KR20140045865A (en) | 2014-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10761612B2 (en) | Gesture recognition techniques | |
KR102413561B1 (en) | Virtual user input controls in a mixed reality environment | |
CN109564472B (en) | Method, medium, and system for selecting an interaction method with a virtual object | |
US10120454B2 (en) | Gesture recognition control device | |
US9430698B2 (en) | Information input apparatus, information input method, and computer program | |
JP6057396B2 (en) | 3D user interface device and 3D operation processing method | |
JP5936155B2 (en) | 3D user interface device and 3D operation method | |
US9477303B2 (en) | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface | |
KR102517425B1 (en) | Systems and methods of direct pointing detection for interaction with a digital device | |
CN102789313B (en) | User interaction system and method | |
US8823642B2 (en) | Methods and systems for controlling devices using gestures and related 3D sensor | |
JP6072237B2 (en) | Fingertip location for gesture input | |
US20180292907A1 (en) | Gesture control system and method for smart home | |
US20140240225A1 (en) | Method for touchless control of a device | |
CN110476142A (en) | Virtual objects user interface is shown | |
KR102147430B1 (en) | virtual multi-touch interaction apparatus and method | |
US20200142495A1 (en) | Gesture recognition control device | |
US10133470B2 (en) | Interfacing device and method for providing user interface exploiting multi-modality | |
CN102779000A (en) | User interaction system and method | |
KR20120086266A (en) | Object manipulation method in augmented reality environment and Apparatus for augmented reality implementing the same | |
CN115039166A (en) | Augmented reality map management | |
KR102156175B1 (en) | Interfacing device of providing user interface expoliting multi-modality and mehod thereof | |
KR101525011B1 (en) | tangible virtual reality display control device based on NUI, and method thereof | |
KR101558094B1 (en) | Multi-modal system using for intuitive hand motion and control method thereof | |
WO2023069591A1 (en) | Object-based dual cursor input and guiding system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |