KR102654176B1 - Computer device for visual-based tactile output using machine learning model, and method of the same - Google Patents

Computer device for visual-based tactile output using machine learning model, and method of the same Download PDF

Info

Publication number
KR102654176B1
KR102654176B1 KR1020220003591A KR20220003591A KR102654176B1 KR 102654176 B1 KR102654176 B1 KR 102654176B1 KR 1020220003591 A KR1020220003591 A KR 1020220003591A KR 20220003591 A KR20220003591 A KR 20220003591A KR 102654176 B1 KR102654176 B1 KR 102654176B1
Authority
KR
South Korea
Prior art keywords
tactile
information
visual
map
computer device
Prior art date
Application number
KR1020220003591A
Other languages
Korean (ko)
Other versions
KR20230108150A (en
Inventor
김태환
이재연
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020220003591A priority Critical patent/KR102654176B1/en
Publication of KR20230108150A publication Critical patent/KR20230108150A/en
Application granted granted Critical
Publication of KR102654176B1 publication Critical patent/KR102654176B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

다양한 실시예들은 기계 학습 모델을 이용하여 시각 기반 촉감 출력을 위한 컴퓨터 장치 및 그의 방법에 관한 것으로, 기계 학습 모델을 이용하여, 시각 영상을 획득하고, 시각 영상으로부터 촉감 정보를 추출하고, 촉감 정보를 기반으로, 촉감 지도를 생성하도록 구성될 수 있다. 다양한 실시예들에 따르면, 컴퓨터 장치는 촉감 지도를 이용하여, 사용자를 위한 인터페이스를 제공할 수 있다. Various embodiments relate to a computer device and method for visual-based tactile output using a machine learning model, using a machine learning model to obtain a visual image, extract tactile information from the visual image, and obtain tactile information. Based on this, it can be configured to generate a tactile map. According to various embodiments, a computer device may provide an interface for a user using a tactile map.

Description

기계 학습 모델을 이용하여 시각 기반 촉감 출력을 위한 컴퓨터 장치 및 그의 방법{COMPUTER DEVICE FOR VISUAL-BASED TACTILE OUTPUT USING MACHINE LEARNING MODEL, AND METHOD OF THE SAME}COMPUTER DEVICE FOR VISUAL-BASED TACTILE OUTPUT USING MACHINE LEARNING MODEL, AND METHOD OF THE SAME}

다양한 실시예들은 기계 학습 모델을 이용하여 시각 기반 촉감 출력을 위한 컴퓨터 장치 및 그의 방법에 관한 것이다. Various embodiments relate to computer devices and methods for vision-based tactile output using machine learning models.

기술의 발전과 더불어, 전자 장치는 다양한 기능을 수행하여, 다양한 서비스를 제공한다. 이에 따라, 전자 장치가 증강 현실을 제공할 수 있다. 증강 현실은 실제 환경에 가상의 콘텐트를 겹쳐 보여주는 기술이다. 즉 사용자는 전자 장치를 통하여 실제 환경에 가상의 콘텐트를 겹쳐 볼 수 있다.With the advancement of technology, electronic devices perform various functions and provide various services. Accordingly, the electronic device can provide augmented reality. Augmented reality is a technology that superimposes virtual content on the real environment. In other words, users can view virtual content overlaid on the real environment through an electronic device.

그런데, 상기와 같은 전자 장치는, 전자 장치와 사용자 사이에 유연한 인터페이스(interface)를 제공하지 않고 있다. 즉 전자 장치가 정해진 환경에서 정해진 콘텐트를 제공할 뿐, 사용자의 상황에 따라 적절한 콘텐트를 제공하지 않는다. 예를 들어, 전자 장치는 특정 객체에 대해 미리 지정된 촉감 정보를 기반으로 인터페이스를 제공할 뿐이다. 이로 인하여, 전자 장치의 사용자 편의성이 낮고, 전자 장치의 이용 효율성이 낮은 문제점이 있다. However, such electronic devices do not provide a flexible interface between the electronic device and the user. In other words, the electronic device only provides designated content in a designated environment, but does not provide appropriate content according to the user's situation. For example, electronic devices simply provide an interface based on pre-specified tactile information for a specific object. Because of this, there are problems in that user convenience of electronic devices is low and use efficiency of electronic devices is low.

한국공개특허공보 제10-2011-0130469호 (2011.12.05.)Korean Patent Publication No. 10-2011-0130469 (2011.12.05.) 미국특허출원공개공보 US2021/0397260호 (2021.12.23.)US Patent Application Publication No. US2021/0397260 (2021.12.23.) 한국공개특허공보 제10-2021-0143891호 (2021.11.29.)Korean Patent Publication No. 10-2021-0143891 (2021.11.29.)

다양한 실시예들은 기계 학습 모델을 이용하여 시각 기반 촉감 출력을 위한 컴퓨터 장치 및 그의 방법을 제공한다. Various embodiments provide computer devices and methods for vision-based tactile output using machine learning models.

다양한 실시예들에 따른 컴퓨터 장치의 방법은, 시각 영상을 획득하는 단계, 상기 시각 영상으로부터 촉감 정보를 추출하는 단계, 및 상기 촉감 정보를 기반으로, 촉감 지도를 생성하는 단계를 포함할 수 있다.A method of a computer device according to various embodiments may include acquiring a visual image, extracting tactile information from the visual image, and generating a tactile map based on the tactile information.

다양한 실시예들에 따른 컴퓨터 장치는, 메모리, 및 상기 메모리와 연결되고, 상기 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성된 프로세서를 포함하고, 상기 프로세서는, 기계 학습 모델을 이용하여, 시각 영상을 획득하고, 상기 시각 영상으로부터 촉감 정보를 추출하고, 상기 촉감 정보를 기반으로, 촉감 지도를 생성하도록 구성될 수 있다. A computer device according to various embodiments includes a memory, and a processor connected to the memory and configured to execute at least one command stored in the memory, wherein the processor generates a visual image using a machine learning model. It may be configured to acquire, extract tactile information from the visual image, and generate a tactile map based on the tactile information.

다양한 실시예들에 따르면, 컴퓨터 장치는 사용자의 상황에 따라 적절한 인터페이스를 제공할 수 있다. 즉, 컴퓨터 장치는 사용자에게 미리 지정된 촉감 정보를 제공하는 것이 아니라, 사용자가 향하는 방향의 시각 영상에 대한 촉감 지도를 생성함으로써, 사용자에게 촉감 정보를 제공할 수 있다. 이를 통해, 사용자가 객체에 실제로 접근하거나 접촉하지 않고도, 객체에 대한 촉감을 느낄 수 있다. 이 때, 컴퓨터 장치는 기계 학습 모델을 이용하여 촉감 지도를 생성하므로, 컴퓨터 장치에 대한 사용자 편의성이 향상될 수 있다. 따라서, 컴퓨터 장치에 대한 이용 효율성이 향상될 수 있다. According to various embodiments, a computer device may provide an appropriate interface depending on the user's situation. In other words, rather than providing pre-designated tactile information to the user, the computer device may provide tactile information to the user by generating a tactile map for a visual image in the direction the user is facing. Through this, the user can feel the tactile sensation of the object without actually approaching or touching the object. At this time, the computer device generates a tactile map using a machine learning model, so user convenience for the computer device can be improved. Accordingly, utilization efficiency for the computer device can be improved.

도 1은 다양한 실시예들에 따른 컴퓨터 장치를 도시하는 도면이다.
도 2는 도 1의 기계 학습 모델의 특징을 설명하기 위한 도면이다.
도 3은 도 2의 기계 학습 모델을 예시적으로 도시하는 도면이다.
도 4는 도 3의 기계 학습 모델의 동작을 설명하기 위한 도면이다.
도 5는 다양한 실시예들에 따른 컴퓨터 장치의 방법을 도시하는 도면이다.
1 is a diagram illustrating a computer device according to various embodiments.
FIG. 2 is a diagram for explaining the characteristics of the machine learning model of FIG. 1.
FIG. 3 is a diagram illustrating the machine learning model of FIG. 2 by way of example.
FIG. 4 is a diagram for explaining the operation of the machine learning model of FIG. 3.
5 is a diagram illustrating a method of a computer device according to various embodiments.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다. Hereinafter, various embodiments of this document are described with reference to the attached drawings.

도 1은 다양한 실시예들에 따른 컴퓨터 장치(100)를 도시하는 도면이다. 도 2는 도 1의 기계 학습 모델(160)의 특징을 설명하기 위한 도면이다. 도 3은 도 2의 기계 학습 모델(160)을 예시적으로 도시하는 도면이다. 도 4는 도 3의 기계 학습 모델(160)의 동작을 설명하기 위한 도면이다. FIG. 1 is a diagram illustrating a computer device 100 according to various embodiments. FIG. 2 is a diagram for explaining the characteristics of the machine learning model 160 of FIG. 1. FIG. 3 is a diagram illustrating the machine learning model 160 of FIG. 2 by way of example. FIG. 4 is a diagram for explaining the operation of the machine learning model 160 of FIG. 3.

도 1을 참조하면, 다양한 실시예들은 시각 기반 촉감 출력을 위한 컴퓨터 장치(100)를 제공한다. 이 때, 컴퓨터 장치(100)는 사용자의 얼굴 또는 머리에 착용 가능한 근안 디스플레이(near-eye display; NED) 장치로 구현될 수 있다. 예를 들면, 근안 디스플레이 장치는 스마트 안경(smart glasses) 또는 헤드 마운트 디스플레이(head mount display; HMD) 장치 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 컴퓨터 장치(100)는 증강 현실(augmented reality; AR)을 제공할 수 있다. Referring to FIG. 1 , various embodiments provide a computer device 100 for visual-based tactile output. At this time, the computer device 100 may be implemented as a near-eye display (NED) device that can be worn on the user's face or head. For example, the near-eye display device may include at least one of smart glasses or a head mounted display (HMD) device. In some embodiments, computer device 100 may provide augmented reality (AR).

다양한 실시예들에 따르면, 컴퓨터 장치(100)는 컴퓨터 장치(100)는 카메라 모듈(110), 입력 모듈(120), 출력 모듈(130), 메모리(140), 또는 프로세서(150) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에서, 컴퓨터 장치(100)의 구성 요소들 중 적어도 하나가 생략될 수 있으며, 적어도 하나의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서, 컴퓨터 장치(100)의 구성 요소들 중 적어도 두 개가 하나의 통합된 회로로 구현될 수 있다. According to various embodiments, the computer device 100 includes at least one of a camera module 110, an input module 120, an output module 130, a memory 140, or a processor 150. may include. In some embodiments, at least one of the components of computer device 100 may be omitted and at least one other component may be added. In some embodiments, at least two of the components of computer device 100 may be implemented as one integrated circuit.

카메라 모듈(110)은 영상을 촬영할 수 있다. 이 때, 컴퓨터 장치(100)가 근안 디스플레이 장치로 구현되는 경우, 카메라 모듈(110)은 컴퓨터 장치(100)를 착용한 사용자에 대해 전방의 영상을 촬영할 수 있다. 예를 들면, 카메라 모듈(110)은 적어도 하나의 렌즈, 적어도 하나의 이미지 센서, 적어도 하나의 이미지 시그널 프로세서, 및 적어도 하나의 플래시를 포함할 수 있다. The camera module 110 can capture images. At this time, when the computer device 100 is implemented as a near-eye display device, the camera module 110 may capture a front image of the user wearing the computer device 100. For example, the camera module 110 may include at least one lens, at least one image sensor, at least one image signal processor, and at least one flash.

입력 모듈(120)은 컴퓨터 장치(100)의 적어도 하나의 구성 요소에 사용될 신호를 입력할 수 있다. 입력 모듈(120)은, 사용자가 컴퓨터 장치(100)에 직접적으로 신호를 입력하도록 구성되는 입력 장치, 주변의 변화를 감지하여 신호를 발생하도록 구성되는 센서 장치, 또는 외부 기기로부터 신호를 수신하도록 구성되는 수신 장치 중 적어도 하나를 포함할 수 있다. 예를 들면, 입력 모듈(120)은 마이크로폰(microphone), 적어도 하나의 물리 버튼(button), 또는 터치를 감지하도록 설정된 터치 회로(touch circuitry)나 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로 중 적어도 하나를 포함할 수 있다. The input module 120 may input a signal to be used in at least one component of the computer device 100. The input module 120 is configured to receive a signal from an input device configured to allow the user to directly input a signal into the computer device 100, a sensor device configured to generate a signal by detecting changes in the surroundings, or an external device. It may include at least one of the receiving devices. For example, the input module 120 may include a microphone, at least one physical button, touch circuitry configured to detect a touch, or a sensor configured to measure the intensity of force generated by the touch. It may include at least one of the circuits.

출력 모듈(130)은 컴퓨터 장치(100)의 외부로 정보를 출력할 수 있다. 출력 모듈(130)은, 정보를 시각적으로 출력하도록 구성되는 표시 장치, 정보를 오디오 신호로 출력할 수 있는 오디오 출력 장치, 또는 정보를 무선으로 송신할 수 있는 송신 장치 중 적어도 하나를 포함할 수 있다. 이 때, 컴퓨터 장치(100)가 근안 디스플레이 장치로 구현되는 경우, 출력 모듈(130)은 컴퓨터 장치(100)를 착용한 사용자의 눈 앞에 배치될 수 있다. 출력 모듈(130)은 컴퓨터 장치(100)의 종류에 따라 표시되는 방식이 다를 수 있다. 일 실시예에 따르면, 컴퓨터 장치(100)가 광학식 투과형(optical see-through)인 경우, 출력 모듈(130)의 적어도 일부는 투명하거나 반투명한 재질로 구성되고, 사용자는 출력 모듈(130)을 통하여 실제 환경을 직접 볼 수 있다. 다른 실시예에 따르면, 컴퓨터 장치(100)가 비디오 투과형(video see-through)인 경우, 사용자는 출력 모듈(130)을 통하여 카메라 모듈(110)을 통해 촬영되는 실제 환경의 영상을 볼 수 있다. 일 예로, 표시 장치는 입력 모듈(120)의 터치 회로 또는 센서 회로 중 적어도 하나와 조립되어, 터치 스크린으로 구현될 수 있다. 예를 들면, 오디오 출력 장치는 스피커 또는 리시버 중 적어도 하나를 포함할 수 있다. The output module 130 may output information to the outside of the computer device 100. The output module 130 may include at least one of a display device configured to visually output information, an audio output device capable of outputting information as an audio signal, or a transmission device capable of transmitting information wirelessly. . At this time, when the computer device 100 is implemented as a near-eye display device, the output module 130 may be placed in front of the eyes of the user wearing the computer device 100. The output module 130 may be displayed differently depending on the type of computer device 100. According to one embodiment, when the computer device 100 is an optical see-through type, at least a portion of the output module 130 is made of a transparent or translucent material, and the user can use the output module 130 to You can see the real environment directly. According to another embodiment, when the computer device 100 is a video see-through type, the user can view images of the actual environment captured through the camera module 110 through the output module 130. As an example, the display device may be implemented as a touch screen by being assembled with at least one of the touch circuit or the sensor circuit of the input module 120. For example, an audio output device may include at least one of a speaker or a receiver.

일부 실시예들에 따르면, 수신 장치와 송신 장치는 통신 모듈로 구현될 수 있다. 통신 모듈은 컴퓨터 장치(100)에서 외부 기기와 통신을 수행할 수 있다. 통신 모듈은 컴퓨터 장치(100)와 외부 기기 간 통신 채널을 수립하고, 통신 채널을 통해, 외부 기기와 통신을 수행할 수 있다. 여기서, 외부 기기는 차량, 위성, 기지국, 서버 또는 다른 컴퓨터 시스템 중 적어도 하나를 포함할 수 있다. 통신 모듈은 유선 통신 모듈 또는 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 유선 통신 모듈은 외부 기기와 유선으로 연결되어, 유선으로 통신할 수 있다. 무선 통신 모듈은 근거리 통신 모듈 또는 원거리 통신 모듈 중 적어도 하나를 포함할 수 있다. 근거리 통신 모듈은 외부 기기와 근거리 통신 방식으로 통신할 수 있다. 예를 들면, 근거리 통신 방식은, 블루투스(Bluetooth), 와이파이 다이렉트(WiFi direct), 또는 적외선 통신(IrDA; infrared data association) 중 적어도 하나를 포함할 수 있다. 원거리 통신 모듈은 외부 기기와 원거리 통신 방식으로 통신할 수 있다. 여기서, 원거리 통신 모듈은 네트워크를 통해 외부 기기와 통신할 수 있다. 예를 들면, 네트워크는 셀룰러 네트워크, 인터넷, 또는 LAN(local area network)이나 WAN(wide area network)과 같은 컴퓨터 네트워크 중 적어도 하나를 포함할 수 있다.According to some embodiments, the receiving device and the transmitting device may be implemented as communication modules. The communication module may perform communication with an external device in the computer device 100. The communication module may establish a communication channel between the computer device 100 and an external device and perform communication with the external device through the communication channel. Here, the external device may include at least one of a vehicle, satellite, base station, server, or other computer system. The communication module may include at least one of a wired communication module or a wireless communication module. The wired communication module is connected to an external device by wire and can communicate by wire. The wireless communication module may include at least one of a short-range communication module or a long-distance communication module. The short-range communication module can communicate with external devices using short-range communication. For example, the short-range communication method may include at least one of Bluetooth, WiFi direct, or infrared data association (IrDA). The long-distance communication module can communicate with external devices through long-distance communication. Here, the long-distance communication module can communicate with external devices through a network. For example, the network may include at least one of a cellular network, the Internet, or a computer network such as a local area network (LAN) or a wide area network (WAN).

메모리(140)는 컴퓨터 장치(100)의 적어도 하나의 구성 요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들면, 메모리(140)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 하나를 포함할 수 있다. 데이터는 적어도 하나의 프로그램 및 이와 관련된 입력 데이터 또는 출력 데이터를 포함할 수 있다. 프로그램은 메모리(140)에 적어도 하나의 명령을 포함하는 소프트웨어로서 저장될 수 있으며, 운영 체제, 미들 웨어 또는 어플리케이션 중 적어도 하나를 포함할 수 있다. Memory 140 may store various data used by at least one component of computer device 100. For example, the memory 140 may include at least one of volatile memory and non-volatile memory. Data may include at least one program and input or output data related thereto. The program may be stored in the memory 140 as software including at least one command, and may include at least one of an operating system, middleware, or an application.

프로세서(150)는 메모리(140)의 프로그램을 실행하여, 컴퓨터 장치(100)의 적어도 하나의 구성 요소를 제어할 수 있다. 이를 통해, 프로세서(150)는 데이터 처리 또는 연산을 수행할 수 있다. 이 때, 프로세서(150)는 메모리(140)에 저장된 명령을 실행할 수 있다. The processor 150 may execute a program in the memory 140 to control at least one component of the computer device 100. Through this, the processor 150 can process data or perform calculations. At this time, the processor 150 may execute instructions stored in the memory 140.

다양한 실시예들에 따르면, 프로세서(150)는 시각 영상(210)에 대한 촉감 지도(220)를 생성할 수 있다. 이 때, 시각 영상(210)은 카메라 모듈(110)을 통해 촬영되는 영상 또는 입력 모듈(120)을 통해 입력되는 영상 중 적어도 하나를 포함할 수 있다. 여기서, 시각 영상(210)은 2차원 영상 또는 3차원 영상 중 적어도 하나를 포함할 수 있다. 이를 위해, 프로세서(150)는 기계 학습 모델(160)을 포함할 수 있다. 기계 학습 모델(160)은, 도 2에 도시된 바와 같이, 시각 영상(210)으로부터 촉감 정보를 추출하고, 촉감 정보를 기반으로 촉감 지도(220)를 생성할 수 있다. 이 때, 기계 학습 모델(160)은 객체 탐지(object detection), 의미론적 분할(semantic segmentation) 등과 같은 태스크들을 수행할 수 있다. 이러한 기계 학습 모델(160)은 미리 수집된 데이터를 이용하여 미리 학습되어 있을 수 있다. 여기서, 수집된 데이터는 다수의 시각 영상들과 그에 대응하여 각각 생성된 다수의 촉감 지도들을 포함할 수 있다. 한편, 시각 영상(210)이 배경(211)과 적어도 하나의 객체(object)(213, 215)로 이루어지는 경우, 촉감 지도(220)에서 배경(211)과 객체(213, 215)가 구분될 수 있다. According to various embodiments, the processor 150 may generate a tactile map 220 for the visual image 210. At this time, the visual image 210 may include at least one of an image captured through the camera module 110 or an image input through the input module 120. Here, the visual image 210 may include at least one of a two-dimensional image or a three-dimensional image. To this end, the processor 150 may include a machine learning model 160. As shown in FIG. 2 , the machine learning model 160 may extract tactile information from the visual image 210 and generate a tactile map 220 based on the tactile information. At this time, the machine learning model 160 may perform tasks such as object detection, semantic segmentation, etc. This machine learning model 160 may be trained in advance using data collected in advance. Here, the collected data may include a plurality of visual images and a plurality of tactile maps each generated correspondingly. Meanwhile, when the visual image 210 consists of a background 211 and at least one object 213, 215, the background 211 and the objects 213, 215 can be distinguished in the tactile map 220. there is.

어떤 실시예들에서, 기계 학습 모델(160)은 인공 신경망(artificial neural network) 기반 심층 학습(deep learning) 모델로 구현될 수 있다. 이러한 기계 학습 모델(160)은, 도 3에 도시된 바와 같이, 세 개의 계층(361, 363, 365)들, 즉 제 1 계층(361), 제 2 계층(363), 및 제 3 계층(365)으로 이루어질 수 있다. 예를 들면, 제 1 계층(361)은 복수의 컨볼루션 계층(convolutional layer)들로 구성되고, 제 2 계층(363)은 복수의 잔차 블록(residual block)들로 구성되고, 제 3 계층(365)은 복수의 디컨볼루션 계층(deconvolutional layer)들로 구성될 수 있다. In some embodiments, machine learning model 160 may be implemented as a deep learning model based on an artificial neural network. As shown in FIG. 3, this machine learning model 160 has three layers 361, 363, and 365, namely, the first layer 361, the second layer 363, and the third layer 365. ) can be achieved. For example, the first layer 361 is composed of a plurality of convolutional layers, the second layer 363 is composed of a plurality of residual blocks, and the third layer 365 ) may be composed of a plurality of deconvolutional layers.

제 1 계층(361)은 미리 정해진 적어도 하나의 입력 파라미터를 기반으로, 시각 영상(210)으로부터 시각 정보를 추출할 수 있다. 예를 들면, 시각 정보는 표면 텍스처(texture)를 나타낼 수 있다. 이 때, 제 1 계층(361)은 시각 영상(210)의 각 픽셀에 대한 시각 정보를 추출할 수 있다. The first layer 361 may extract visual information from the visual image 210 based on at least one predetermined input parameter. For example, visual information may represent surface texture. At this time, the first layer 361 may extract visual information for each pixel of the visual image 210.

제 2 계층(363)은 입력 파라미터에 매핑되어 있는 적어도 하나의 출력 파라미터를 기반으로, 시각 정보로부터 촉감 정보를 검출할 수 있다. 이 때, 제 2 계층(363)은 시각 영상(210)의 각 픽셀에 대한 촉감 정보를 검출할 수 있다. 그리고, 제 2 계층(363)은 각 출력 파라미터에 대한 촉감 정보를 검출할 수 있다. 여기서, 출력 파라미터는 진동수(frequency), 크기(magnitude), 또는 주기(period) 중 적어도 하나를 포함할 수 있다. 예를 들면, 제 2 계층(363)은, 도 4에 도시된 바와 같이, 시각 정보에 따라 촉감 정보, 즉 진동수, 크기, 또는 주기 중 적어도 하나에 대한 촉감 정보를 검출할 수 있다. The second layer 363 may detect tactile information from visual information based on at least one output parameter mapped to an input parameter. At this time, the second layer 363 can detect tactile information for each pixel of the visual image 210. And, the second layer 363 can detect tactile information for each output parameter. Here, the output parameter may include at least one of frequency, magnitude, or period. For example, as shown in FIG. 4, the second layer 363 may detect tactile information, that is, tactile information for at least one of frequency, size, or period, according to visual information.

제 3 계층(365)은 촉감 정보를 이용하여, 촉감 지도(220)를 생성할 수 있다. 여기서, 제 3 계층(365)은 시각 영상(210)의 각 픽셀에 대해 촉감 정보를 적용하여, 촉감 지도(220)를 생성할 수 있다. 이 때, 촉감 지도(220)는 하나의 촉감 파라미터 지도(321, 323, 325)로 이루어지거나, 복수의 촉감 파라미터 지도(321, 323, 325)들의 조합으로 이루어질 수 있다. 각 촉감 파라미터 지도(321, 323, 325)는 각 출력 파라미터에 대응하며, 해당 출력 파라미터에 대해 검출된 촉감 정보로부터 생성될 수 있다. 복수의 출력 파라미터들에 대해 촉감 정보가 검출되는 경우, 제 3 계층(365)은 복수의 촉감 파라미터 지도(321, 323, 325)들을 각각 생성하고, 이들의 조합으로 촉감 지도(220)가 생성될 수 있다. The third layer 365 can generate the tactile map 220 using tactile information. Here, the third layer 365 can generate the tactile map 220 by applying tactile information to each pixel of the visual image 210. At this time, the tactile map 220 may be composed of one tactile parameter map 321, 323, and 325, or may be composed of a combination of a plurality of tactile parameter maps 321, 323, and 325. Each tactile parameter map 321, 323, and 325 corresponds to each output parameter and can be generated from tactile information detected for the corresponding output parameter. When tactile information is detected for a plurality of output parameters, the third layer 365 generates a plurality of tactile parameter maps 321, 323, and 325, respectively, and the tactile map 220 is generated by combining these. You can.

예를 들면, 제 1 계층(361)은 시각 영상(210)으로부터 시각 정보를 추출할 수 있다. 여기서, 시각 영상(210)은 배경(211), 제 1 객체(213), 및 제 2 객체(215)를 포함하며, 제 1 계층(361)은 배경(211), 제 1 객체(213), 및 제 2 객체(215)의 각각에 대해 시각 정보를 추출할 수 있다. 여기서, 배경(211), 제 1 객체(213), 및 제 2 객체(215)의 각각에 대해, 상이한 시각 정보가 검출될 수 있다. 제 2 계층(363)은 시각 정보로부터, 제 1 출력 파라미터(진동수), 제 2 출력 파라미터(크기), 및 제 3 출력 파라미터(주기)의 각각에 대해 촉감 정보를 검출할 수 있다. 여기서, 배경(211), 제 1 객체(213), 및 제 2 객체(215)의 각각에 대해, 상이한 촉감 정보가 검출될 수 있다. 제 3 계층(365)은 시각 영상(210)의 각 픽셀에 대해 촉감 정보를 적용하여, 제 1 출력 파라미터(진동수), 제 2 출력 파라미터(크기), 및 제 3 출력 파라미터(주기)에 각각 대응되는 제 1 촉감 파라미터 지도(진동수)(321), 제 2 촉감 파라미터 지도(크기)(323), 및 제 3 촉감 파라미터 지도(주기)(325)를 각각 생성할 수 있다. 이를 통해, 촉감 지도(220)가 제 1 촉감 파라미터 지도(진동수)(321), 제 2 촉감 파라미터 지도(크기)(323), 및 제 3 촉감 파라미터 지도(주기)(325)의 조합으로, 생성될 수 있다. For example, the first layer 361 may extract visual information from the visual image 210. Here, the visual image 210 includes a background 211, a first object 213, and a second object 215, and the first layer 361 includes a background 211, a first object 213, and a second object 215. and visual information may be extracted for each of the second objects 215. Here, for each of the background 211, the first object 213, and the second object 215, different visual information can be detected. The second layer 363 may detect tactile information for each of the first output parameter (frequency), second output parameter (size), and third output parameter (period) from visual information. Here, for each of the background 211, the first object 213, and the second object 215, different tactile information can be detected. The third layer 365 applies tactile information to each pixel of the visual image 210, corresponding to the first output parameter (frequency), the second output parameter (size), and the third output parameter (period), respectively. A first tactile parameter map (frequency) 321, a second tactile parameter map (size) 323, and a third tactile parameter map (period) 325 can be generated, respectively. Through this, the tactile map 220 is generated as a combination of the first tactile parameter map (frequency) 321, the second tactile parameter map (size) 323, and the third tactile parameter map (period) 325. It can be.

따라서, 프로세서(150)는 촉감 지도(220)를 이용하여, 사용자를 위한 인터페이스(interface)를 제공할 수 있다. 이 때, 프로세서(150)는 사용자를 위해 촉각 피드백을 제공할 수 있다. 여기서, 촉각 피드백은 사용자와 접촉된 상태에서 발생되는 접촉식 피드백 또는 사용자와 접촉되지 않고도 발생되는 비접촉식 피드백 중 적어도 하나를 포함할 수 있다. 예를 들면, 촉각 피드백은 진동으로 발생될 수 있다. 구체적으로, 촉감 지도(220)가 하나의 촉감 파라미터 지도(321, 323, 325)로 이루어진 경우, 프로세서(150)는 촉감 지도(220)의 촉감 정보에 따라, 촉각 피드백을 제공할 수 있다. 한편, 촉감 지도(220)가 복수의 촉감 파라미터 지도(321, 323, 325)들로 이루어진 경우, 프로세서(150)는 촉감 파라미터 지도(321, 323, 325)들의 촉감 정보의 조합으로, 촉각 피드백을 제공할 수 있다. Accordingly, the processor 150 can use the tactile map 220 to provide an interface for the user. At this time, the processor 150 may provide tactile feedback for the user. Here, the tactile feedback may include at least one of tactile feedback generated while in contact with the user or non-contact feedback generated without contact with the user. For example, tactile feedback can be generated by vibration. Specifically, when the tactile map 220 consists of one tactile parameter map 321, 323, and 325, the processor 150 may provide tactile feedback according to the tactile information of the tactile map 220. Meanwhile, when the tactile map 220 consists of a plurality of tactile parameter maps 321, 323, and 325, the processor 150 provides tactile feedback as a combination of the tactile information of the tactile parameter maps 321, 323, and 325. can be provided.

도 5는 다양한 실시예들에 따른 컴퓨터 장치(100)의 방법을 도시하는 도면이다. FIG. 5 is a diagram illustrating a method of using the computer device 100 according to various embodiments.

도 5를 참조하면, 컴퓨터 장치(100)는 510 단계에서, 시각 영상(210)을 획득할 수 있다. 이 때, 시각 영상(210)은 카메라 모듈(110)을 통해 촬영되는 영상 또는 입력 모듈(120)을 통해 입력되는 영상 중 적어도 하나를 포함할 수 있다. 여기서, 시각 영상(210)은 2차원 영상 또는 3차원 영상 중 적어도 하나를 포함할 수 있다. 즉, 프로세서(150)는 카메라 모듈(110) 또는 입력 모듈(120)을 통해, 시각 영상(210)을 획득할 수 있다. Referring to FIG. 5, the computer device 100 may acquire a visual image 210 in step 510. At this time, the visual image 210 may include at least one of an image captured through the camera module 110 or an image input through the input module 120. Here, the visual image 210 may include at least one of a two-dimensional image or a three-dimensional image. That is, the processor 150 may acquire the visual image 210 through the camera module 110 or the input module 120.

다음으로, 컴퓨터 장치(100)는 520 단계에서, 시각 영상으로부터 촉감 정보를 추출할 수 있다. 프로세서(150)는 기계 학습 모델(160)을 포함하며, 기계 학습 모델(160)을 이용하여, 시각 영상(210)으로부터 촉감 정보를 추출하고, 촉감 정보를 기반으로 촉감 지도(220)를 생성할 수 있다. 이 때, 기계 학습 모델(160)은 객체 탐지, 의미론적 분할 등과 같은 태스크들을 수행할 수 있다. 이러한 기계 학습 모델(160)은 미리 수집된 데이터를 이용하여 미리 학습되어 있을 수 있다. 여기서, 수집된 데이터는 다수의 시각 영상들과 그에 대응하여 각각 생성된 다수의 촉감 지도들을 포함할 수 있다. 한편, 시각 영상(210)이 배경(211)과 적어도 하나의 객체(213, 215)로 이루어지는 경우, 촉감 지도(220)에서 배경(211)과 객체(213, 215)가 구분될 수 있다. Next, the computer device 100 may extract tactile information from the visual image in step 520. The processor 150 includes a machine learning model 160, and uses the machine learning model 160 to extract tactile information from the visual image 210 and generate a tactile map 220 based on the tactile information. You can. At this time, the machine learning model 160 may perform tasks such as object detection, semantic segmentation, etc. This machine learning model 160 may be trained in advance using data collected in advance. Here, the collected data may include a plurality of visual images and a plurality of tactile maps each generated correspondingly. Meanwhile, when the visual image 210 consists of a background 211 and at least one object 213 or 215, the background 211 and the objects 213 or 215 may be distinguished in the tactile map 220.

구체적으로, 프로세서(150)는 미리 정해진 적어도 하나의 입력 파라미터를 기반으로, 시각 영상(210)으로부터 시각 정보를 추출할 수 있다. 예를 들면, 시각 정보는 표면 텍스처를 나타낼 수 있다. 이 때, 프로세서(150)는 시각 영상(210)의 각 픽셀에 대한 시각 정보를 추출할 수 있다. 이 후, 프로세서(150)는 입력 파라미터에 매핑되어 있는 적어도 하나의 출력 파라미터를 기반으로, 시각 정보로부터 촉감 정보를 검출할 수 있다. 이 때, 프로세서(150)는 시각 영상(210)의 각 픽셀에 대한 촉감 정보를 검출할 수 있다. 그리고, 프로세서(150)는 각 출력 파라미터에 대한 촉감 정보를 검출할 수 있다. 여기서, 출력 파라미터는 진동수, 크기, 또는 주기 중 적어도 하나를 포함할 수 있다. Specifically, the processor 150 may extract visual information from the visual image 210 based on at least one predetermined input parameter. For example, visual information may represent surface texture. At this time, the processor 150 may extract visual information for each pixel of the visual image 210. Afterwards, the processor 150 may detect tactile information from visual information based on at least one output parameter mapped to an input parameter. At this time, the processor 150 may detect tactile information for each pixel of the visual image 210. Additionally, the processor 150 can detect tactile information for each output parameter. Here, the output parameter may include at least one of frequency, magnitude, or period.

마지막으로, 컴퓨터 장치(100)는 530 단계에서, 촉감 정보를 기반으로, 촉감 지도를 생성할 수 있다. 프로세서(150)는 촉감 정보를 이용하여, 촉감 지도(220)를 생성할 수 있다. 여기서, 프로세서(150)는 시각 영상(210)의 각 픽셀에 대해 촉감 정보를 적용하여, 촉감 지도(220)를 생성할 수 있다. 이 때, 촉감 지도(220)는 하나의 촉감 파라미터 지도(321, 323, 325)로 이루어지거나, 복수의 촉감 파라미터 지도(321, 323, 325)들의 조합으로 이루어질 수 있다. 각 촉감 파라미터 지도(321, 323, 325)는 각 출력 파라미터에 대응하며, 해당 출력 파라미터에 대해 검출된 촉감 정보로부터 생성될 수 있다. 복수의 출력 파라미터들에 대해 촉감 정보가 검출되는 경우, 프로세서(150)는 복수의 촉감 파라미터 지도(321, 323, 325)들을 각각 생성하고, 이들의 조합으로 촉감 지도(220)가 생성될 수 있다. Finally, the computer device 100 may generate a tactile map based on tactile information in step 530. The processor 150 may generate the tactile map 220 using tactile information. Here, the processor 150 may generate the tactile map 220 by applying tactile information to each pixel of the visual image 210. At this time, the tactile map 220 may be composed of one tactile parameter map 321, 323, and 325, or may be composed of a combination of a plurality of tactile parameter maps 321, 323, and 325. Each tactile parameter map 321, 323, and 325 corresponds to each output parameter and can be generated from tactile information detected for the corresponding output parameter. When tactile information is detected for a plurality of output parameters, the processor 150 generates a plurality of tactile parameter maps 321, 323, and 325, respectively, and the tactile map 220 can be generated by combining these. .

따라서, 프로세서(150)는 촉감 지도(220)를 이용하여, 사용자를 위한 인터페이스를 제공할 수 있다. 이 때, 프로세서(150)는 사용자를 위해 촉각 피드백을 제공할 수 있다. 여기서, 촉각 피드백은 사용자와 접촉된 상태에서 발생되는 접촉식 피드백 또는 사용자와 접촉되지 않고도 발생되는 비접촉식 피드백 중 적어도 하나를 포함할 수 있다. 예를 들면, 촉각 피드백은 진동으로 발생될 수 있다. 구체적으로, 촉감 지도(220)가 하나의 촉감 파라미터 지도(321, 323, 325)로 이루어진 경우, 프로세서(150)는 촉감 지도(220)의 촉감 정보에 따라, 촉각 피드백을 제공할 수 있다. 한편, 촉감 지도(220)가 복수의 촉감 파라미터 지도(321, 323, 325)들로 이루어진 경우, 프로세서(150)는 촉감 파라미터 지도(321, 323, 325)들의 촉감 정보의 조합으로, 촉각 피드백을 제공할 수 있다. Accordingly, the processor 150 can use the tactile map 220 to provide an interface for the user. At this time, the processor 150 may provide tactile feedback for the user. Here, the tactile feedback may include at least one of tactile feedback generated while in contact with the user or non-contact feedback generated without contact with the user. For example, tactile feedback can be generated by vibration. Specifically, when the tactile map 220 consists of one tactile parameter map 321, 323, and 325, the processor 150 may provide tactile feedback according to the tactile information of the tactile map 220. Meanwhile, when the tactile map 220 consists of a plurality of tactile parameter maps 321, 323, and 325, the processor 150 provides tactile feedback as a combination of the tactile information of the tactile parameter maps 321, 323, and 325. can be provided.

다양한 실시예들에 따르면, 컴퓨터 장치(100)는 사용자의 상황에 따라 적절한 인터페이스를 제공할 수 있다. 즉, 컴퓨터 장치(100)는 사용자에게 미리 지정된 촉감 정보를 제공하는 것이 아니라, 사용자가 향하는 방향의 시각 영상(210)에 대한 촉감 지도(220)를 생성함으로써, 사용자에게 촉감 정보를 제공할 수 있다. 이를 통해, 사용자가 객체에 실제로 접근하거나 접촉하지 않고도, 객체에 대한 촉감을 느낄 수 있다. 이 때, 컴퓨터 장치(100)는 기계 학습 모델(160)을 이용하여 촉감 지도(220)를 생성하므로, 컴퓨터 장치(100)에 대한 사용자 편의성이 향상될 수 있다. 따라서, 컴퓨터 장치(100)에 대한 이용 효율성이 향상될 수 있다. According to various embodiments, the computer device 100 may provide an appropriate interface depending on the user's situation. That is, the computer device 100 does not provide pre-designated tactile information to the user, but may provide tactile information to the user by generating a tactile map 220 for the visual image 210 in the direction toward which the user is facing. . Through this, the user can feel the tactile sensation of the object without actually approaching or touching the object. At this time, the computer device 100 generates the tactile map 220 using the machine learning model 160, so user convenience for the computer device 100 can be improved. Accordingly, use efficiency for the computer device 100 can be improved.

다양한 실시예들에 따른 컴퓨터 장치(100)의 방법은, 시각 영상(210)을 획득하는 단계(510 단계), 시각 영상(210)으로부터 촉감 정보를 추출하는 단계(520 단계), 및 촉감 정보를 기반으로, 촉감 지도(220)를 생성하는 단계(530 단계)를 포함할 수 있다.A method of the computer device 100 according to various embodiments includes acquiring a visual image 210 (step 510), extracting tactile information from the visual image 210 (step 520), and extracting tactile information. Based on this, a step (530) of generating a tactile map (220) may be included.

다양한 실시예들에 따르면, 촉감 정보를 추출하는 단계(520 단계)는, 미리 정해진 적어도 하나의 입력 파라미터를 기반으로, 시각 영상(210)으로부터 시각 정보를 추출하는 단계, 및 입력 파라미터에 매핑되어 있는 적어도 하나의 출력 파라미터를 기반으로, 시각 정보로부터 촉감 정보를 검출하는 단계를 포함할 수 있다. According to various embodiments, the step of extracting tactile information (step 520) includes extracting visual information from the visual image 210 based on at least one predetermined input parameter, and mapping to the input parameter. It may include detecting tactile information from visual information based on at least one output parameter.

다양한 실시예들에 따르면, 시각 정보는, 시각 영상(210)의 픽셀들의 각각에 대해 추출되고, 촉감 지도(220)를 생성하는 단계(530 단계)는, 픽셀들의 각각에 대해 촉감 정보를 적용하여, 촉감 지도(220)를 생성하는 단계를 포함할 수 있다.According to various embodiments, visual information is extracted for each of the pixels of the visual image 210, and the step of generating the tactile map 220 (step 530) involves applying tactile information to each of the pixels. , may include generating a tactile map 220.

다양한 실시예들에 따르면, 촉감 정보를 검출하는 단계는, 복수의 출력 파라미터들의 각각에 대한 촉감 정보를 검출하는 단계를 포함할 수 있다.According to various embodiments, detecting tactile information may include detecting tactile information for each of a plurality of output parameters.

다양한 실시예들에 따르면, 촉감 지도(220)를 생성하는 단계(530 단계)는, 출력 파라미터들의 각각에 대한 촉감 정보를 기반으로, 출력 파라미터들의 각각에 대응하는 복수의 촉감 파라미터 지도(321, 323, 325)들을 각각 생성하는 단계, 및 촉감 파라미터 지도(321, 323, 325)들의 조합으로, 촉감 지도(220)를 생성하는 단계를 포함할 수 있다. According to various embodiments, the step of generating the tactile map 220 (step 530) includes generating a plurality of tactile parameter maps 321 and 323 corresponding to each of the output parameters, based on tactile information for each of the output parameters. , 325), respectively, and generating the tactile map 220 by combining the tactile parameter maps 321, 323, and 325.

다양한 실시예들에 따르면, 출력 파라미터는, 진동수, 크기, 또는 주기 중 적어도 하나를 포함할 수 있다. According to various embodiments, the output parameter may include at least one of frequency, magnitude, or period.

다양한 실시예들에 따르면, 컴퓨터 장치(100)의 방법은, 기계 학습 모델(160)로 구현될 수 있다. According to various embodiments, the method of the computer device 100 may be implemented with a machine learning model 160.

다양한 실시예들에 따르면, 촉감 지도(220)는, 사용자에게 촉각 피드백을 제공하는 데 활용될 수 있다. According to various embodiments, the tactile map 220 may be utilized to provide tactile feedback to a user.

다양한 실시예들에 따르면, 컴퓨터 장치(100)는, 근안 디스플레이 장치로 구현될 수 있다.According to various embodiments, the computer device 100 may be implemented as a near-eye display device.

다양한 실시예들에 따른 컴퓨터 장치(100)는, 메모리(140), 및 메모리(140)와 연결되고, 메모리(140)에 저장된 적어도 하나의 명령을 실행하도록 구성된 프로세서(150)를 포함할 수 있다. The computer device 100 according to various embodiments may include a memory 140 and a processor 150 connected to the memory 140 and configured to execute at least one instruction stored in the memory 140. .

다양한 실시예들에 따르면, 프로세서(150)는, 기계 학습 모델(160)을 이용하여, 시각 영상(210)을 획득하고, 시각 영상(210)으로부터 촉감 정보를 추출하고, 촉감 정보를 기반으로, 촉감 지도(220)를 생성하도록 구성될 수 있다.According to various embodiments, the processor 150 acquires the visual image 210 using the machine learning model 160, extracts tactile information from the visual image 210, and based on the tactile information, It may be configured to generate a tactile map 220 .

다양한 실시예들에 따르면, 프로세서(150)는, 미리 정해진 적어도 하나의 입력 파라미터를 기반으로, 시각 영상(210)으로부터 시각 정보를 추출하고, 입력 파라미터에 매핑되어 있는 적어도 하나의 출력 파라미터를 기반으로, 시각 정보로부터 촉감 정보를 검출하도록 구성될 수 있다.According to various embodiments, the processor 150 extracts visual information from the visual image 210 based on at least one predetermined input parameter and extracts visual information from the visual image 210 based on at least one output parameter mapped to the input parameter. , may be configured to detect tactile information from visual information.

다양한 실시예들에 따르면, 시각 정보는, 시각 영상(210)의 픽셀들의 각각에 대해 추출되고, 프로세서(150)는, 픽셀들의 각각에 대해 촉감 정보를 적용하여, 촉감 지도(220)를 생성하도록 구성될 수 있다.According to various embodiments, visual information is extracted for each of the pixels of the visual image 210, and the processor 150 applies tactile information to each of the pixels to generate a tactile map 220. It can be configured.

다양한 실시예들에 따르면, 프로세서(150)는, 복수의 출력 파라미터들의 각각에 대한 촉감 정보를 검출하고, 출력 파라미터들의 각각에 대한 촉감 정보를 기반으로, 출력 파라미터들의 각각에 대응하는 복수의 촉감 파라미터 지도(321, 323, 325)들을 각각 생성하고, 촉감 파라미터 지도(321, 323, 325)들의 조합으로, 촉감 지도(220)를 생성하도록 구성될 수 있다. According to various embodiments, the processor 150 detects tactile information for each of a plurality of output parameters, and based on the tactile information for each of the output parameters, a plurality of tactile parameters corresponding to each of the output parameters. It may be configured to generate the maps 321, 323, and 325, respectively, and to generate the tactile map 220 by combining the tactile parameter maps 321, 323, and 325.

다양한 실시예들에 따르면, 출력 파라미터는, 진동수, 크기, 또는 주기 중 적어도 하나를 포함할 수 있다.According to various embodiments, the output parameter may include at least one of frequency, magnitude, or period.

다양한 실시예들에 따르면, 컴퓨터 장치(100)는, 근안 디스플레이 장치로 구현될 수 있다.According to various embodiments, the computer device 100 may be implemented as a near-eye display device.

이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성 요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is. Software may be distributed over networked computer systems and thus stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

다양한 실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터-판독 가능 매체에 기록될 수 있다. 이 때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 그리고, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.Methods according to various embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may continuously store a computer-executable program, or temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성 요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성 요소를 다른 구성 요소와 구분하기 위해 사용될 뿐 해당 구성 요소들을 한정하지 않는다. 어떤(예: 제 1) 구성 요소가 다른(예: 제 2) 구성 요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로 연결되거나, 다른 구성 요소(예: 제 3 구성 요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used herein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various changes, equivalents, and/or replacements of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar components. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" can modify the corresponding components regardless of order or importance, and are only used to distinguish one component from another. The components are not limited. When a component (e.g. a first) component is said to be "connected (functionally or communicatively)" or "connected" to another (e.g. a second) component, it means that the component is connected to the other component. It may be connected directly to a component or may be connected through another component (e.g., a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. The term “module” used in this document includes a unit comprised of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part, a minimum unit that performs one or more functions, or a part thereof. For example, a module may be comprised of an application-specific integrated circuit (ASIC).

다양한 실시예들에 따르면, 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 단계들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 단계들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 통합 이전에 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 단계들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 단계들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 단계들이 추가될 수 있다. According to various embodiments, each component (eg, module or program) of the described components may include a single entity or a plurality of entities. According to various embodiments, one or more of the components or steps described above may be omitted, or one or more other components or steps may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to integration. According to various embodiments, the steps performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the steps may be executed in a different order, omitted, or , or one or more other steps may be added.

Claims (15)

컴퓨터 장치의 방법에 있어서,
시각 영상을 획득하는 단계;
상기 시각 영상으로부터 촉감 정보를 추출하는 단계; 및
상기 추출된 촉감 정보를 기반으로, 촉감 지도를 생성하는 단계
를 포함하고,
상기 촉감 정보를 추출하는 단계는,
미리 정해진 적어도 하나의 입력 파라미터를 기반으로, 상기 시각 영상으로부터 시각 정보를 추출하는 단계; 및
상기 입력 파라미터에 매핑되어 있는 적어도 하나의 출력 파라미터를 기반으로, 상기 시각 정보로부터 촉감 정보를 검출하는 단계
를 포함하고,
상기 촉감 정보를 검출하는 단계는,
복수의 출력 파라미터들의 각각에 대한 촉감 정보를 검출하는 단계
를 포함하고,
상기 촉감 지도를 생성하는 단계는,
상기 출력 파라미터들의 각각에 대한 촉감 정보를 기반으로, 상기 출력 파라미터들의 각각에 대응하는 복수의 촉감 파라미터 지도들을 각각 생성하는 단계; 및
상기 촉감 파라미터 지도들의 조합으로, 상기 촉감 지도를 생성하는 단계
를 포함하는,
방법.
In the method of the computer device,
Obtaining a visual image;
extracting tactile information from the visual image; and
Generating a tactile map based on the extracted tactile information.
Including,
The step of extracting the tactile information is,
extracting visual information from the visual image based on at least one predetermined input parameter; and
Detecting tactile information from the visual information based on at least one output parameter mapped to the input parameter.
Including,
The step of detecting the tactile information is,
Detecting tactile information for each of a plurality of output parameters.
Including,
The step of generating the tactile map is,
generating a plurality of tactile parameter maps corresponding to each of the output parameters based on tactile information for each of the output parameters; and
Generating the tactile map by combining the tactile parameter maps.
Including,
method.
삭제delete 제 1 항에 있어서,
상기 시각 정보는,
상기 시각 영상의 픽셀들의 각각에 대해 추출되고,
상기 촉감 지도를 생성하는 단계는,
상기 픽셀들의 각각에 대해 상기 추출된 촉감 정보를 적용하여, 상기 촉감 지도를 생성하는 단계
를 포함하는,
방법.
According to claim 1,
The visual information is,
Extracted for each pixel of the visual image,
The step of generating the tactile map is,
Generating the tactile map by applying the extracted tactile information to each of the pixels.
Including,
method.
삭제delete 삭제delete 제 1 항에 있어서,
상기 출력 파라미터는,
진동수, 크기, 또는 주기 중 적어도 하나를 포함하는,
방법.
According to claim 1,
The output parameters are,
Containing at least one of frequency, magnitude, or period,
method.
제 1 항, 제 3 항, 또는 제 6 항 중 어느 한 항에 있어서,
상기 방법은,
기계 학습 모델로 구현되는,
방법.
The method of claim 1, 3, or 6,
The above method is,
Implemented as a machine learning model,
method.
제 1 항에 있어서,
상기 촉감 지도는,
사용자에게 촉각 피드백을 제공하는 데 활용되는,
방법.
According to claim 1,
The tactile map is,
Utilized to provide tactile feedback to the user,
method.
제 1 항에 있어서,
상기 컴퓨터 장치는,
근안 디스플레이 장치로 구현되는,
방법.
According to claim 1,
The computer device,
Implemented as a near-eye display device,
method.
컴퓨터 장치에 있어서,
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성된 프로세서
를 포함하고,
상기 프로세서는, 기계 학습 모델을 이용하여,
시각 영상을 획득하고,
상기 시각 영상으로부터 촉감 정보를 추출하고,
상기 추출된 촉감 정보를 기반으로, 촉감 지도를 생성하도록 구성되고,
상기 프로세서는,
미리 정해진 적어도 하나의 입력 파라미터를 기반으로, 상기 시각 영상으로부터 시각 정보를 추출하고,
상기 입력 파라미터에 매핑되어 있는 적어도 하나의 출력 파라미터를 기반으로, 상기 시각 정보로부터 촉감 정보를 검출하도록 구성되고,
상기 프로세서는,
복수의 출력 파라미터들의 각각에 대한 촉감 정보를 검출하고,
상기 출력 파라미터들의 각각에 대한 촉감 정보를 기반으로, 상기 출력 파라미터들의 각각에 대응하는 복수의 촉감 파라미터 지도들을 각각 생성하고,
상기 촉감 파라미터 지도들의 조합으로, 상기 촉감 지도를 생성하도록 구성되는,
컴퓨터 장치.
In computer devices,
Memory; and
A processor coupled to the memory and configured to execute at least one instruction stored in the memory
Including,
The processor uses a machine learning model,
Acquire visual images,
Extracting tactile information from the visual image,
Configured to generate a tactile map based on the extracted tactile information,
The processor,
Extracting visual information from the visual image based on at least one predetermined input parameter,
configured to detect tactile information from the visual information based on at least one output parameter mapped to the input parameter,
The processor,
Detect tactile information for each of the plurality of output parameters,
Based on the tactile information for each of the output parameters, generate a plurality of tactile parameter maps corresponding to each of the output parameters, respectively,
configured to generate, by a combination of the tactile parameter maps, the tactile map,
computer device.
삭제delete 제 10 항에 있어서,
상기 시각 정보는,
상기 시각 영상의 픽셀들의 각각에 대해 추출되고,
상기 프로세서는,
상기 픽셀들의 각각에 대해 상기 추출된 촉감 정보를 적용하여, 상기 촉감 지도를 생성하도록 구성되는,
컴퓨터 장치.
According to claim 10,
The visual information is,
Extracted for each pixel of the visual image,
The processor,
configured to generate the tactile map by applying the extracted tactile information to each of the pixels,
computer device.
삭제delete 제 10 항에 있어서,
상기 출력 파라미터는,
진동수, 크기, 또는 주기 중 적어도 하나를 포함하는,
컴퓨터 장치.
According to claim 10,
The output parameters are,
Containing at least one of frequency, magnitude, or period,
computer device.
제 10 항에 있어서,
상기 컴퓨터 장치는,
근안 디스플레이 장치로 구현되는,
컴퓨터 장치.
According to claim 10,
The computer device,
Implemented as a near-eye display device,
computer device.
KR1020220003591A 2022-01-10 2022-01-10 Computer device for visual-based tactile output using machine learning model, and method of the same KR102654176B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220003591A KR102654176B1 (en) 2022-01-10 2022-01-10 Computer device for visual-based tactile output using machine learning model, and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220003591A KR102654176B1 (en) 2022-01-10 2022-01-10 Computer device for visual-based tactile output using machine learning model, and method of the same

Publications (2)

Publication Number Publication Date
KR20230108150A KR20230108150A (en) 2023-07-18
KR102654176B1 true KR102654176B1 (en) 2024-04-04

Family

ID=87423861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220003591A KR102654176B1 (en) 2022-01-10 2022-01-10 Computer device for visual-based tactile output using machine learning model, and method of the same

Country Status (1)

Country Link
KR (1) KR102654176B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276173B1 (en) 2016-12-28 2021-07-12 임머숀 코퍼레이션 Haptic effect generation for space-dependent content
US20210397260A1 (en) * 2020-06-23 2021-12-23 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3d environment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010105012A1 (en) 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for a texture engine
KR20160046399A (en) * 2014-10-20 2016-04-29 삼성에스디에스 주식회사 Method and Apparatus for Generation Texture Map, and Database Generation Method
KR102171203B1 (en) * 2018-12-31 2020-10-28 광운대학교 산학협력단 A method of matching a stereo image and an apparatus therefor
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
CN113222827A (en) * 2020-01-21 2021-08-06 北京三星通信技术研究有限公司 Image processing method, image processing device, electronic equipment and computer readable storage medium
KR102325061B1 (en) * 2020-01-29 2021-11-11 가천대학교 산학협력단 Cognitive Assistance System and Method for Visually Impaired

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276173B1 (en) 2016-12-28 2021-07-12 임머숀 코퍼레이션 Haptic effect generation for space-dependent content
US20210397260A1 (en) * 2020-06-23 2021-12-23 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3d environment

Also Published As

Publication number Publication date
KR20230108150A (en) 2023-07-18

Similar Documents

Publication Publication Date Title
WO2019184889A1 (en) Method and apparatus for adjusting augmented reality model, storage medium, and electronic device
US20190164394A1 (en) System with wearable device and haptic output device
US10176636B1 (en) Augmented reality fashion
CN110059685B (en) Character area detection method, device and storage medium
CN111652678A (en) Article information display method, device, terminal, server and readable storage medium
JP2020042802A (en) Location-based virtual element modality in three-dimensional content
US11302086B1 (en) Providing features of an electronic product in an augmented reality environment
CA2981207A1 (en) Method and system for providing virtual display of a physical environment
CN111701238A (en) Virtual picture volume display method, device, equipment and storage medium
CN112136096B (en) Displaying a physical input device as a virtual object
CN104205037A (en) Light guide display and field of view
KR20150131358A (en) Content creation tool
US10578880B2 (en) Augmenting reality via antenna and interaction profile
CN112105983B (en) Enhanced visual ability
EP3506082B1 (en) Audio rendering for augmented reality
US10871829B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
KR102406878B1 (en) Visual search refinement for computer generated rendering environments
CN110675412A (en) Image segmentation method, training method, device and equipment of image segmentation model
CN112581571A (en) Control method and device of virtual image model, electronic equipment and storage medium
US10366495B2 (en) Multi-spectrum segmentation for computer vision
KR102654176B1 (en) Computer device for visual-based tactile output using machine learning model, and method of the same
CN110968248B (en) Generating a 3D model of a fingertip for visual touch detection
US9350918B1 (en) Gesture control for managing an image view display
CN113678173A (en) Method and apparatus for graph-based placement of virtual objects
CN113194329A (en) Live broadcast interaction method, device, terminal and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right