KR102132693B1 - Haptic interaction system and method for probing real objects in remote places - Google Patents

Haptic interaction system and method for probing real objects in remote places Download PDF

Info

Publication number
KR102132693B1
KR102132693B1 KR1020180104753A KR20180104753A KR102132693B1 KR 102132693 B1 KR102132693 B1 KR 102132693B1 KR 1020180104753 A KR1020180104753 A KR 1020180104753A KR 20180104753 A KR20180104753 A KR 20180104753A KR 102132693 B1 KR102132693 B1 KR 102132693B1
Authority
KR
South Korea
Prior art keywords
haptic
client
pointer
haptic device
server
Prior art date
Application number
KR1020180104753A
Other languages
Korean (ko)
Other versions
KR20200026596A (en
Inventor
성미영
최아람
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020180104753A priority Critical patent/KR102132693B1/en
Publication of KR20200026596A publication Critical patent/KR20200026596A/en
Application granted granted Critical
Publication of KR102132693B1 publication Critical patent/KR102132693B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템은, 원격지의 클라이언트; 및 상기 클라이언트와 실시간으로 통신하는 서버를 포함하고, 상기 클라이언트는, 카메라, 제1 햅틱 장치, 및 제1 제어부를 포함하며, 상기 서버는, 제2 햅틱 장치, 제2 제어부, 및 표시부를 포함하고, 베이스 벡터의 길이는 제1 햅틱 장치의 햅틱 포인터와 물체와의 최초 충돌 발생시 서버로부터 수신되는 제2 햅틱 장치의 햅틱 포인터의 위치에서 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이이며, 원격지에 있는 실제 물체를 사용자가 눈으로 확인하는 동시에 햅틱 장치를 사용하여 원격지의 물체를 촉각으로 탐사할 수 있고 사용자가 실제와 유사한 매끄러운 햅틱 피드백을 경험할 수 있다.A haptic interaction system for remote sensing according to an embodiment of the present invention includes a remote client; And a server communicating in real time with the client, wherein the client includes a camera, a first haptic device, and a first control unit, and the server includes a second haptic device, a second control unit, and a display unit. , The length of the base vector is the length of the base vector minus the position of the haptic pointer of the first haptic device minus the position of the haptic pointer of the second haptic device received from the server when the first collision between the haptic pointer of the first haptic device and the object occurs At the same time, the user can visually detect a real object at a remote location while using a haptic device to tactilely explore the object at a remote location, and the user can experience a smooth haptic feedback similar to the real life.

Figure R1020180104753
Figure R1020180104753

Description

원격 탐사를 위한 햅틱 상호작용 시스템 및 방법{HAPTIC INTERACTION SYSTEM AND METHOD FOR PROBING REAL OBJECTS IN REMOTE PLACES}HAPTIC INTERACTION SYSTEM AND METHOD FOR PROBING REAL OBJECTS IN REMOTE PLACES}

본 발명은 원격 탐사를 위한 햅틱 상호작용 시스템 및 방법에 관한 것이다.The present invention relates to a haptic interaction system and method for remote sensing.

최근에 IT(정보 기술) 산업에서 가상 현실 기술의 수요가 기하급수적으로 증가하고 있다. IT 산업은 주로 가상 현실의 시각적 측면에서 역할을 하는 헤드 마운트 디스플레이(HMD: Head Mount Display) 장치를 요구한다. 대부분의 가상 현실의 응용은 시각 및 청각 감각으로만 가상 현실을 경험할 수 있다. 그러나 특정 응용에서 촉각 피드백은 보다 사실적인 가상 환경을 만들 수 있다. 햅틱 기술은 사용자가 힘과 움직임에 관한 촉감을 감지할 수 있게 해주는 기술이다. 햅틱 기술은 가상 수술 훈련이나 햅틱 게이밍 시스템과 같은 가상 환경에서의 시뮬레이션에 중요한 역할을 한다. 햅틱 기술의 구현에서 햅틱 장치는 필수적인 부분을 차지한다. 전형적인 햅틱 장치로는 도 1에 도시된 바와 같이, 3D 시스템의 Touch(이전 PHAMTOM Omni)와 Touch X(이전 PHANTOM Desktop)과, Novint Technologies의 Falcon 등이 있다.Recently, the demand for virtual reality technology in the IT (information technology) industry has increased exponentially. The IT industry mainly requires a Head Mount Display (HMD) device that plays a role in the visual aspect of virtual reality. Most virtual reality applications can experience virtual reality only with visual and auditory senses. However, in certain applications, tactile feedback can create a more realistic virtual environment. Haptic technology is a technology that allows a user to sense the tactile sensation of force and movement. Haptic technology plays an important role in simulation in virtual environments such as virtual surgical training or haptic gaming systems. In the implementation of haptic technology, haptic devices are an essential part. Typical haptic devices include Touch (formerly PHAMTOM Omni) and Touch X (formerly PHANTOM Desktop) of 3D system, Falcon of Novint Technologies, as shown in FIG. 1.

햅틱 장치가 가상 물체와 충돌할 때, 햅틱 장치는 순간의 반력을 계산하여 햅틱 렌더링 프로세스를 수행한다. 그런 다음 사용자에게 햅틱 피드백을 제공하여 사용자가 터치를 느낄 수 있게 한다. 매끄럽고 정교한 촉각 피드백을 사용자에게 제공하기 위해 1000 ㎐ 이상의 갱신 속도가 유지되어야 한다. 그러나 네트워크를 통한 실시간 햅틱 응용의 경우, 햅틱 피드백의 응답성은 네트워크상의 지연, 손실 등으로 인해 저하될 수 있다.When a haptic device collides with a virtual object, the haptic device calculates the reaction force at the moment to perform a haptic rendering process. Then, it provides haptic feedback to the user so that the user can feel the touch. In order to provide smooth and sophisticated tactile feedback to the user, an update rate of 1000 kHz or higher must be maintained. However, in the case of a real-time haptic application through a network, the responsiveness of the haptic feedback may be deteriorated due to a delay or loss on the network.

이러한 촉각 피드백 저하 문제를 해결하기 위해, 네트워크 기반 햅틱 응용에서 매끄러운 피드백을 가능하게 하기 위한 다양한 연구가 수행되고 있다. 가장 초기의 연구 중 하나는 MIT의 연구원에 의한 "네트워크 기반 반력(Network-Based Force Feedback) 알고리즘"이다. 이 연구에서는 네트워크 지연으로 인한 햅틱 피드백 오류를 줄이기 위해 "수동 전송선 모델링"과 "햅틱 데드-레커닝"을 제안했다. 또한, 오타와 대학(Ottawa University)의 연구원들은 촉각 데이터 전송을 위해 매끄러운 동기식 협업 전송 프로토콜(SCTP: synchronous collaboration transport protocol)을 제안했다. 이 연구의 실험 결과는 제안된 프로토콜이 SCTP 또는 Light TCP(전송 제어 프로토콜)와 같은 기존의 전송 프로토콜에 비해 촉각 기반 협업의 효율성을 증가시킬 수 있음을 보여 주었다. 워털루 대학교(University of Waterloo)와 핸드셰이크 VR(Handshake VR Inc.)은 텔레-햅틱 도구 상자인 핸드셰이크 프로센스(Handshake proSENSE ™) 1.3을 상용화했다. 이 연구는 다양한 네트워크 지연 보상 기술을 제공하고 사용자가 끌어서 놓기 방식으로 손쉽게 네트워크 기반 촉각 협업 프로그램을 만들 수 있도록 한다.In order to solve this tactile feedback degradation problem, various studies have been conducted to enable smooth feedback in a network-based haptic application. One of the earliest studies is the "Network-Based Force Feedback Algorithm" by MIT researchers. In this study, "passive transmission line modeling" and "haptic dead- reckoning" were proposed to reduce haptic feedback errors due to network delay. In addition, researchers at Ottawa University have proposed a smooth synchronous collaboration transport protocol (SCTP) for tactile data transmission. The experimental results of this study showed that the proposed protocol can increase the efficiency of tactile-based collaboration compared to existing transmission protocols such as SCTP or Light Transmission Control Protocol (TCP). The University of Waterloo and Handshake VR Inc. have commercialized the Handshake proSENSE™ 1.3, a tele-haptic toolbox. This study provides various network delay compensation technologies and enables users to easily create network-based tactile collaboration programs by dragging and dropping.

네트워크 환경에서 햅틱 협업에 대한 본 발명자의 연구 중 하나는 "햅틱 협업 가상 환경에서의 통합 햅틱 데이터 전송"이다[12]. 이 연구는 네트워크 햅틱 협업 애플리케이션에서 지연, 지터 및 손실의 변화를 분석한다. 또한, 그것은 실제 네트워크 트래픽에 적용될 수 있는 알고리즘을 제안한다. 손실되거나 지터의 영향을 받은 패킷들은 패킷 손실과 지터에 의해 야기된 오류를 줄이기 위해 간단한 선형 예측 방법으로 보상된다. 네트워크 협업의 지연으로 인한 클라이언트들 간의 동시성 문제는 버퍼링 시간을 설정하여 해결된다.One of the inventors' studies of haptic collaboration in a network environment is "integrated haptic data transmission in a haptic collaborative virtual environment" [12]. This study analyzes changes in delay, jitter and loss in networked haptic collaboration applications. In addition, it proposes an algorithm that can be applied to actual network traffic. Packets that are lost or affected by jitter are compensated by a simple linear prediction method to reduce packet loss and errors caused by jitter. The concurrency problem between clients due to the delay of network collaboration is solved by setting the buffering time.

"MuseSpace: 햅틱의 사용을 최대화하는 터치 가능한 3D 박물관"이라는 본 발명자의 또 다른 연구는 네트워크 환경에서 다양한 햅틱 상호 작용을 제공한다. 이 연구는 가상 전시 공간을 3D로 구현하고 시각적, 청각적, 촉각적 감각으로 경험할 수 있는 3D 물체로 표현되는 전시를 가능하게 한다. 또한, 사용자는 네트워크를 통해 실시간으로 다른 사용자와 상호 작용할 수 있다.Another study by the inventor, "MuseSpace: a touchable 3D museum that maximizes the use of haptics," provides a variety of haptic interactions in a network environment. This study embodies a virtual exhibition space in 3D and enables an exhibition represented by 3D objects that can be experienced with visual, auditory, and tactile sensations. In addition, users can interact with other users in real time over the network.

[1] LapSim®: The Proven Training System. https://surgicalscience.com/systems/lapsim/ (Retrieved June 1, 2017). [1] LapSim®: The Proven Training System. https://surgicalscience.com/systems/lapsim/ (Retrieved June 1, 2017). [2] S. M. Kim, M. Y. Sung, “A Haptic Gaming System for Tactile Textures and 3D Shapes Discrimination,” International Journal of Multimedia & Ubiquitous Engineering, Vol. 9 Issue 9, pp. 319-334, September 2014. [2] S. M. Kim, M. Y. Sung, “A Haptic Gaming System for Tactile Textures and 3D Shapes Discrimination,” International Journal of Multimedia & Ubiquitous Engineering, Vol. 9 Issue 9, pp. 319-334, September 2014. [3] The Touch™ Haptic Device. https://www.3dsystems.com/haptics-devices/geomagic-touch/ (Retrieved June 1, 2017). [3] The Touch™ Haptic Device. https://www.3dsystems.com/haptics-devices/geomagic-touch/ (Retrieved June 1, 2017). [4] The Touch X Haptic Device. https://www.3dsystems.com/haptics-devices/geomagic-touch-x (Retrieved June 1, 2017). [4] The Touch X Haptic Device. https://www.3dsystems.com/haptics-devices/geomagic-touch-x (Retrieved June 1, 2017). [5] Novint Falcon, http://www.novint.com/index.php /products/novintfalcon/ (Retrieved June 1, 2017). [5] Novint Falcon, http://www.novint.com/index.php /products/novintfalcon/ (Retrieved June 1, 2017). [6] K. Salisbury and F. Barbagli, “Haptic rendering: introductory concepts,” Computer Graphics and Applications, IEEE vol. 24, no. 2, pp. 24-32, 2004. [6] K. Salisbury and F. Barbagli, “Haptic rendering: introductory concepts,” Computer Graphics and Applications, IEEE vol. 24, no. 2, pp. 24-32, 2004. [7] G. Vineet, N. Jayakrishnan and C. Subhasis, “Opportunistic Adaptive Haptic Sampling on Forward Channel in Telehaptic Communication,” 2016 IEEE Haptics Symposium, Philadelphia, Pennsylvania, USA, April 8-11, 2016. [7] G. Vineet, N. Jayakrishnan and C. Subhasis, “Opportunistic Adaptive Haptic Sampling on Forward Channel in Telehaptic Communication,” 2016 IEEE Haptics Symposium, Philadelphia, Pennsylvania, USA, April 8-11, 2016. [8] D. Sabine, W. A. William and F. A. Aldo, “Gaze-based teleprosthetic enables intuitive continuous control of complex robot arm use: writing & drawing,” 2016 6th IEEE International Conference on Biomedical Robotics and Biomechatronics, UTown, Singapore, June 26-29, 2016. [8] D. Sabine, WA William and FA Aldo, “Gaze-based teleprosthetic enables intuitive continuous control of complex robot arm use: writing & drawing,” 2016 6th IEEE International Conference on Biomedical Robotics and Biomechatronics, UTown, Singapore, June 26 -29, 2016. [9] P. W. John, J. K-S. Robert, A. K. Marc and H. Neville, “Algorithms for Network-Based Force Feedback,” Proceedings of the fourth PHANTOM User Group Workshop, MIT, (1999) October 9-12. [9] P. W. John, J. K-S. Robert, A. K. Marc and H. Neville, “Algorithms for Network-Based Force Feedback,” Proceedings of the fourth PHANTOM User Group Workshop, MIT, (1999) October 9-12. [10] B. Azzedine and M. Haifa, “An Efficient Hybrid Multicast Transport Protocol for Collaborative Virtual Environment with Networked Haptic,” International Workshop on Haptic Audio Visual Environments and their Applications, Ottawa, Canada, (2006) November 4-5. [10] B. Azzedine and M. Haifa, “An Efficient Hybrid Multicast Transport Protocol for Collaborative Virtual Environment with Networked Haptic,” International Workshop on Haptic Audio Visual Environments and their Applications, Ottawa, Canada, (2006) November 4-5. [11] Mehran A. and Kevin T., Haptic enabled robotics training system and method, U.S. Patent 20,090,253,109, October 8, 2009. [11] Mehran A. and Kevin T., Haptic enabled robotics training system and method, U.S. Patent 20,090,253,109, October 8, 2009. [12] Y. H. You, M. Y. Sung, K. K. Jun, “An Integrated Haptic Data Transmission in Haptic Collaborative Virtual Environments,” Computer and Information Science, 2007. ICIS 2007. 6th IEEE/ACIS International Conference, July 11-13, 2007. [12] Y. H. You, M. Y. Sung, K. K. Jun, “An Integrated Haptic Data Transmission in Haptic Collaborative Virtual Environments,” Computer and Information Science, 2007. ICIS 2007. 6th IEEE/ACIS International Conference, July 11-13, 2007. [13] Y. H. You, M. Y. Sung, K. K. Jun, and S. R. Lee, “MuseSpace: a touchable 3D museum with maximum usage of haptics,” Proceeding SIGGRAPH '07 ACM SIGGRAPH 2007, San Diego, California, posters, Article No. 154, ACM, August 05-09, 2007. [13] Y. H. You, M. Y. Sung, K. K. Jun, and S. R. Lee, “MuseSpace: a touchable 3D museum with maximum usage of haptics,” Proceeding SIGGRAPH '07 ACM SIGGRAPH 2007, San Diego, California, posters, Article No. 154, ACM, August 05-09, 2007. [14] CHAI 3D. http://www.chai3d.org/ (Retrieved June 1, 2017). [14] CHAI 3D. http://www.chai3d.org/ (Retrieved June 1, 2017). [15] J. Postel, “User Datagram Protocol,” RFC 768, 1980. [15] J. Postel, “User Datagram Protocol,” RFC 768, 1980. [16] G. C. Vinton and E. K. Robert, “A Protocol for Packet Network Intercommunication,” Transactions on Communications, IEEE vol. Com-22, no. 5, (1974), pp. 637-648. [16] G. C. Vinton and E. K. Robert, “A Protocol for Packet Network Intercommunication,” Transactions on Communications, IEEE vol. Com-22, no. 5, (1974), pp. 637-648. [17] FSR ® 400 Series Data Sheet. https://www.interlinkelectronics.com/datasheets/Datasheet_FSR.pdf (Retrieved June 1, 2017). [17] FSR ® 400 Series Data Sheet. https://www.interlinkelectronics.com/datasheets/Datasheet_FSR.pdf (Retrieved June 1, 2017). [18] Arduino UNO. https://www.arduino.cc/en/Main/ ArduinoBoardUno/ (Retrieved June 1, 2017). [18] Arduino UNO. https://www.arduino.cc/en/Main/ ArduinoBoardUno/ (Retrieved June 1, 2017). [19] OpenCV. http://opencv.org/ (Retrieved June 1, 2017).[19] OpenCV. http://opencv.org/ (Retrieved June 1, 2017).

본 발명이 해결하고자 하는 과제는 원격지에 있는 실제 물체를 사용자가 눈으로 확인하는 동시에 햅틱 장치를 사용하여 원격지의 물체를 촉각으로 탐사할 수 있고 사용자가 실제와 유사한 매끄러운 햅틱 피드백을 경험할 수 있는 원격 탐사를 위한 햅틱 상호작용 시스템을 제공하는 것이다.The problem to be solved by the present invention is that a user can visually detect a real object at a remote location while using a haptic device to tactilely detect the object at a remote location, and the user can experience remote haptic feedback similar to the real experience. It is to provide a haptic interaction system for.

본 발명이 해결하고자 하는 다른 과제는 원격지에 있는 실제 물체를 사용자가 눈으로 확인하는 동시에 햅틱 장치를 사용하여 원격지의 물체를 촉각으로 탐사할 수 있고 사용자가 실제와 유사한 매끄러운 햅틱 피드백을 경험할 수 있는 원격 탐사를 위한 햅틱 상호작용 방법을 제공하는 것이다.Another problem to be solved by the present invention is that a user can visually detect an object at a remote location using a haptic device while the user visually identifies a real object at a remote location, and the user can experience a smooth haptic feedback similar to the real experience. It provides a haptic interaction method for exploration.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템은,Haptic interaction system for remote sensing according to an embodiment of the present invention for solving the above problems,

원격지의 클라이언트; 및Remote clients; And

상기 클라이언트와 실시간으로 통신하는 서버를 포함하고,And a server communicating in real time with the client,

상기 클라이언트는,The client,

실제 물체의 영상을 획득하기 위한 카메라, 상기 물체와 접촉하여 접촉된 지점에서의 힘을 감지하고 상기 서버로부터 수신되는 위치 제어 신호에 따라 햅틱 포인터의 위치가 조정되는 제1 햅틱 장치, 및 상기 제1 햅틱 장치의 동작을 제어하고, 상기 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 감지된 힘 값 및 베이스 벡터의 길이를 포함하는 햅틱 데이터 및 상기 실제 물체의 영상을 상기 서버로 전송하고, 상기 서버로부터 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호를 수신하는 제1 제어부를 포함하며,A camera for acquiring an image of a real object, a first haptic device that senses a force at a point in contact with the object and adjusts the position of a haptic pointer according to a position control signal received from the server, and the first Control the operation of a haptic device, transmit the haptic data including the position of the haptic pointer of the first haptic device, the sensed force value and the length of the base vector, and an image of the real object to the server, from the server It includes a first control unit for receiving a position control signal for controlling the position of the haptic pointer of the first haptic device,

상기 서버는,The server,

사용자에 의해 햅틱 포인터의 위치가 조정되고, 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 충돌 발생시 상기 클라이언트로부터 수신되는 상기 제1 햅틱 장치에 의해 감지된 힘 값에 대응하는 상기 실제 물체의 강도를 촉감으로서 사용자에게 제공하는 제2 햅틱 장치, 상기 제2 햅틱 장치의 햅틱 포인터의 위치를 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호로서 상기 클라이언트에 제공하고, 상기 클라이언트로부터 수신되는 햅틱 데이터에 기반하여 햅틱 렌더링을 수행하여, 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 충돌 발생시 상기 클라이언트로부터 수신되는 상기 제1 햅틱 장치에 의해 감지된 힘 값에 대응하는 상기 실제 물체의 강도를 반력으로 변환하여 상기 제2 햅틱 장치에 제공하기 위한 제2 제어부, 및 상기 클라이언트로부터 수신되는 실제 물체의 영상을 표시하기 위한 표시부를 포함하고,The position of the haptic pointer is adjusted by the user, and the intensity of the actual object corresponding to a force value sensed by the first haptic device received from the client when a collision occurs between the haptic pointer of the first haptic device and the object A second haptic device that provides the user with a tactile sense, and provides the position of the haptic pointer of the second haptic device to the client as a position control signal for controlling the position of the haptic pointer of the first haptic device of the client, and the The haptic rendering is performed based on the haptic data received from the client, and when the collision between the haptic pointer of the first haptic device and the object occurs, the force corresponding to the force value detected by the first haptic device received from the client A second control unit for converting the intensity of a real object into a reaction force and providing it to the second haptic device, and a display unit for displaying an image of the real object received from the client,

상기 베이스 벡터의 길이는 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 최초 충돌 발생시 상기 서버로부터 수신되는 제2 햅틱 장치의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이이다.The length of the base vector is the base obtained by subtracting the position of the haptic pointer of the first haptic device from the position of the haptic pointer of the second haptic device received from the server when the first collision between the haptic pointer of the first haptic device and the object occurs. The length of the vector.

본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템에 있어서, 상기 제2 제어부는 햅틱 렌더링 수행시, 상기 클라이언트로부터 수신되는 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 베이스 벡터의 길이, 상기 감지된 힘 값 및 상기 제2 햅틱 장치의 햅틱 포인터의 위치에 기반하여 상기 반력을 계산함으로써, 상기 클라이언트로부터 수신되는 이산적인 힘 값들을 연속적인 값들로 보간할 수 있다.In the haptic interaction system for remote sensing according to an embodiment of the present invention, when the second control unit performs haptic rendering, the position of the haptic pointer of the first haptic device of the client received from the client, the base vector By calculating the reaction force based on the length of, the sensed force value and the position of the haptic pointer of the second haptic device, discrete force values received from the client may be interpolated into successive values.

또한, 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템에 있어서, 상기 반력은 상기 클라이언트로부터 수신되는 힘 값과 힘 스케일과 정규화된 방향 벡터의 길이를 곱하여 계산되고, 상기 힘 스케일은 현재의 방향 벡터의 길이를 최초 충돌이 발생했을 때의 방향 벡터의 길이인 베이스 벡터의 길이로 나눈 값이며, 상기 방향 벡터는 상기 제2 햅틱 장치의 현재의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 것일 수 있다.Further, in the haptic interaction system for remote sensing according to an embodiment of the present invention, the reaction force is calculated by multiplying the force value received from the client by the force scale and the length of the normalized direction vector, and the force scale is The length of the current direction vector is divided by the length of the base vector, which is the length of the direction vector when the first collision occurs, and the direction vector is the first haptic device at the position of the current haptic pointer of the second haptic device. It may be subtracted from the position of the haptic pointer.

상기 다른 과제를 해결하기 위한 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 방법은,Haptic interaction method for remote sensing according to an embodiment of the present invention for solving the above other problems,

(a) 원격지의 클라이언트가, 카메라를 이용하여 실제 물체의 영상을 획득하여 상기 클라이언트와 실시간으로 통신하는 서버로 전송하는 단계;(a) a client at a remote site, using a camera to obtain an image of a real object and transmitting it to a server that communicates with the client in real time;

(b) 상기 서버가 상기 클라이언트로부터 수신되는 실제 물체의 영상을 표시부에 표시하는 단계;(b) the server displaying an image of an actual object received from the client on a display unit;

(c) 상기 서버가 사용자에 의한 제2 햅틱 장치의 햅틱 포인터의 위치 조정에 따라, 상기 제2 햅틱 장치의 햅틱 포인터의 위치를 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호로서 상기 클라이언트에 제공하는 단계;(c) a position for controlling the position of the haptic pointer of the second haptic device by the user according to the position adjustment of the haptic pointer of the second haptic device by the user, to control the position of the haptic pointer of the first haptic device of the client Providing the client as a control signal;

(d) 상기 클라이언트가, 상기 서버로부터 수신되는 위치 제어 신호에 따라 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 조정하여 상기 물체와 접촉하고 접촉된 지점에서의 힘을 감지하는 단계;(d) the client adjusting a position of a haptic pointer of the first haptic device according to a position control signal received from the server to contact the object and sensing the force at the contact point;

(e) 상기 클라이언트가, 상기 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 감지된 힘 값 및 베이스 벡터의 길이를 포함하는 햅틱 데이터를 상기 서버로 전송하는 단계; 및(e) the client transmitting haptic data including the position of the haptic pointer of the first haptic device, the sensed force value, and the length of the base vector to the server; And

(f) 상기 서버가, 상기 클라이언트로부터 수신되는 햅틱 데이터에 기반하여 햅틱 렌더링을 수행하여, 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 충돌 발생시 상기 클라이언트로부터 수신되는 상기 제1 햅틱 장치에 의해 감지된 힘 값에 대응하는 상기 실제 물체의 강도를 반력으로 변환하여 상기 제2 햅틱 장치에 제공하는 단계를 포함하고,(f) the server, by performing haptic rendering based on haptic data received from the client, by the first haptic device received from the client when a collision occurs between the haptic pointer of the first haptic device and the object And converting the intensity of the real object corresponding to the sensed force value into a reaction force and providing it to the second haptic device,

상기 베이스 벡터의 길이는 상기 제1 햅틱 장치의 제1 햅틱 포인터와 상기 물체와의 최초 충돌 발생시 상기 서버로부터 수신되는 제2 햅틱 장치의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이이다.The length of the base vector determines the position of the haptic pointer of the first haptic device at the position of the haptic pointer of the second haptic device received from the server when the first collision between the first haptic pointer of the first haptic device and the object occurs. The length of the subtracted base vector.

본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 방법에 있어서, 상기 서버는 햅틱 렌더링 수행시, 상기 클라이언트로부터 수신되는 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 베이스 벡터의 길이, 상기 감지된 힘 값 및 상기 제2 햅틱 장치의 햅틱 포인터의 위치에 기반하여 상기 반력을 계산함으로써, 상기 클라이언트로부터 수신되는 이산적인 힘 값들을 연속적인 값들로 보간할 수 있다.In the haptic interaction method for remote sensing according to an embodiment of the present invention, when the server performs haptic rendering, the position of the haptic pointer of the first haptic device of the client received from the client, the length of the base vector , By calculating the reaction force based on the sensed force value and the position of the haptic pointer of the second haptic device, discrete force values received from the client may be interpolated into successive values.

또한, 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 방법에 있어서, 상기 반력은 상기 클라이언트로부터 수신되는 힘 값과 힘 스케일과 정규화된 방향 벡터의 길이를 곱하여 계산되고, 상기 힘 스케일은 현재의 방향 벡터의 길이를 최초 충돌이 발생했을 때의 방향 벡터의 길이인 베이스 벡터의 길이로 나눈 값이며, 상기 방향 벡터는 상기 제2 햅틱 장치의 현재의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 것일 수 있다.In addition, in the haptic interaction method for remote sensing according to an embodiment of the present invention, the reaction force is calculated by multiplying the force value received from the client by the force scale and the length of the normalized direction vector, and the force scale is The length of the current direction vector is divided by the length of the base vector, which is the length of the direction vector when the first collision occurs, and the direction vector is the first haptic device at the position of the current haptic pointer of the second haptic device. It may be subtracted from the position of the haptic pointer.

본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템 및 방법에 의하면, 원격지에 있는 실제 물체를 사용자가 눈으로 확인하는 동시에 햅틱 장치를 사용하여 원격지의 물체를 촉각으로 탐사할 수 있고 사용자가 실제와 유사한 매끄러운 햅틱 피드백을 경험할 수 있다.According to a haptic interaction system and method for remote sensing according to an embodiment of the present invention, a user can visually detect an object at a remote location using a haptic device while simultaneously observing a real object at a remote location by a user Can experience realistic haptic feedback.

도 1은 햅틱 장치들을 도시한 것으로, (a) Touch, (b) Touch X, (c) Novint Falcon.
도 2는 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템의 구성을 도시한 도면.
도 3은 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템의 개념적인 구조를 도시한 도면.
도 4는 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템의 장치들을 도시한 도면으로, (a) 클라이언트의 햅틱 장치, (b) 서버 모니터의 스크린샷, (c) 서버의 햅틱 장치.
도 5는 햅틱 데이터 패킷들의 정의를 도시한 도면(좌측: 서버에서 클라이언트로의 패킷 구조, 우측: 클라이언트에서 서버로의 패킷 구조).
도 6은 햅틱 데이터 전송을 위한 클라이언트의 프로세스 흐름을 도시한 도면.
도 7은 햅틱 데이터 전송을 위한 서버의 프로세스 흐름을 도시한 도면.
도 8은 서버의 햅틱 렌더링 알고리즘을 도시한 도면.
도 9는 힘 스케일의 계산을 설명하기 위한 도면.
도 10은 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 방법의 흐름도를 도시한 도면.
도 11은 단단한 책, 고무공, 스폰지를 도시한 도면.
도 12는 거리 오차 그래프를 도시한 도면.
1 shows haptic devices, (a) Touch, (b) Touch X, (c) Novint Falcon.
2 is a view showing the configuration of a haptic interaction system for remote sensing according to an embodiment of the present invention.
3 is a diagram illustrating the conceptual structure of a haptic interaction system for remote sensing according to an embodiment of the present invention.
4 is a diagram illustrating devices of a haptic interaction system for remote sensing according to an embodiment of the present invention, (a) a haptic device of a client, (b) a screenshot of a server monitor, (c) a haptic of a server Device.
Fig. 5 is a view showing the definition of haptic data packets (left: packet structure from server to client, right: packet structure from client to server).
6 is a diagram illustrating a process flow of a client for haptic data transmission.
7 is a view showing a process flow of a server for haptic data transmission.
8 is a diagram showing a haptic rendering algorithm of the server.
9 is a view for explaining the calculation of the force scale.
10 is a flowchart of a haptic interaction method for remote sensing according to an embodiment of the present invention.
11 is a view showing a hard book, a rubber ball, and a sponge.
Fig. 12 is a graph showing a distance error graph.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예들로부터 더욱 명백해질 것이다.The objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments that are associated with the accompanying drawings.

이에 앞서 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야 한다.Prior to this, the terms or words used in the specification and claims should not be interpreted in a conventional and lexical sense, and the inventor can appropriately define the concept of terms in order to best describe his or her invention. Based on the principles, it should be interpreted as meaning and concept consistent with the technical idea of the present invention.

본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In addition, it should be noted that, in addition to reference numerals to the components of each drawing in the present specification, the same components have the same numbers as possible, even if they are displayed on different drawings.

또한, "제1", "제2", "일면", "타면" 등의 용어는, 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.Further, the terms "first", "second", "one side", "other side", and the like are used to distinguish one component from another component, and the component is limited by the terms. It is not.

이하, 본 발명을 설명함에 있어, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지 기술에 대한 상세한 설명은 생략한다.Hereinafter, in describing the present invention, detailed descriptions of related well-known technologies that may unnecessarily obscure the subject matter of the present invention are omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시형태를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

일반적으로, 햅틱 장치는 가상 환경에서 물체의 터치 감각을 사용자에게 전달하는 데 사용된다. 그러나 본 발명에서는 이러한 일반적인 사용법과는 달리, 가상 환경이 아닌 원격지에 존재하는 실제 물체에 대한 촉감을 사용자에게 전달하는 것을 제안한다.In general, haptic devices are used to convey the touch sense of an object to a user in a virtual environment. However, in the present invention, unlike the general usage, it is proposed to transmit a tactile feeling to a user of a real object existing in a remote place, not a virtual environment.

햅틱 상호 작용에 대한 과거의 노력은 시뮬레이션된 가상 물체에 대한 햅틱 피드백에만 관련이 있었다. 본 발명에서는 원격지에 존재하는 실제 물체와의 햅틱 상호 작용을 제안한다. 본 발명에서 서버와 클라이언트 원격 탐사를 포함하는 텔레-햅틱 시스템이 제안된다. 원격지에서 얻은 데이터를 바탕으로 시스템 구조와 햅틱 렌더링이 설명된다. 본 발명에서 제안된 방법의 햅틱 전송 및 촉각 인식의 품질을 평가하기 위해 강체 및 변형 가능 물체에 대한 많은 사용자 연구가 수행되었다. 결과적으로 본 발명에 의한 방법이 강체의 거리 및 촉각 피드백에서 물체의 상이한 강성을 인지하는 데 적합하다는 것이 확인되었다.Past efforts on haptic interactions have only been relevant to haptic feedback on simulated virtual objects. The present invention proposes a haptic interaction with a real object existing in a remote location. In the present invention, a tele-haptic system is proposed that includes remote sensing of a server and a client. The system structure and haptic rendering are described based on the data obtained from the remote site. In order to evaluate the quality of haptic transmission and tactile recognition of the method proposed in the present invention, many user studies on rigid and deformable objects have been performed. As a result, it was confirmed that the method according to the present invention is suitable for recognizing different stiffness of an object in the distance and tactile feedback of a rigid body.

본 발명의 목적은 햅틱 장치를 사용하여 원격지에 있는 실제 물체의 느낌을 사용자가 감지할 수 있게 하는 것이다. 본 발명에서 제안된 시스템은 서버와 클라이언트로 구분된다. 서버는 사용자 상호 작용을 담당하며 클라이언트는 원격 위치에 있는 물체에 대한 사용자의 제어를 담당한다. 서버는 컴퓨터와 햅틱 장치로 구성되며, 클라이언트에는 추가적으로 힘 센서와 웹캠과 같은 카메라가 구비된다.An object of the present invention is to allow a user to sense the feeling of a real object at a remote location using a haptic device. The system proposed in the present invention is divided into a server and a client. The server is responsible for user interaction and the client is responsible for the user's control over objects at remote locations. The server is composed of a computer and a haptic device, and the client is additionally equipped with a camera such as a force sensor and a webcam.

도 2는 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템의 구성을 도시한 것이다.Figure 2 shows the configuration of a haptic interaction system for remote sensing according to an embodiment of the present invention.

도 2에 도시된 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템은, 원격지의 클라이언트(200), 및 상기 클라이언트(200)와 실시간으로 통신하는 서버(202)를 포함한다.The haptic interaction system for remote exploration according to an embodiment of the present invention shown in FIG. 2 includes a remote client 200 and a server 202 in real-time communication with the client 200.

상기 클라이언트(200)는, 실제 물체(200)의 영상을 획득하기 위한 카메라(204), 상기 물체(220)와 접촉하여 접촉된 지점에서의 힘을 감지하고 상기 서버(202)로부터 수신되는 위치 제어 신호에 따라 햅틱 포인터의 위치가 조정되는 제1 햅틱 장치(206), 및 상기 제1 햅틱 장치(206)의 동작을 제어하고, 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치, 상기 감지된 힘 값 및 베이스 벡터의 길이를 포함하는 햅틱 데이터 및 상기 실제 물체(220)의 영상을 상기 서버(202)로 전송하고, 상기 서버(202)로부터 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호를 수신하는 제1 제어부(208)를 포함한다.The client 200, the camera 204 for acquiring the image of the real object 200, detects the force at the point of contact with the object 220, and controls the position received from the server 202 The position of the haptic pointer of the first haptic device 206 is controlled by controlling the operation of the first haptic device 206 and the first haptic device 206, where the position of the haptic pointer is adjusted according to a signal. Haptic data including the force value and the length of the base vector and the image of the real object 220 are transmitted to the server 202, and the location of the haptic pointer of the first haptic device 206 from the server 202 It includes a first control unit 208 for receiving a position control signal for controlling the.

상기 제1 햅틱 장치(206)는 실제 물체(220)와 접촉하는 힘 센서(212) 및 실제 물체(220)를 탐사하기 위한 햅틱 포인터(210)를 포함한다. 본 발명의 일 실시예에서 상기 힘 센서(212)는 상기 햅틱 포인터(210)에 부착되어, 물체(220)와 접촉시 물체(220)와 접촉된 지점에서의 힘을 감지한다.The first haptic device 206 includes a force sensor 212 in contact with the real object 220 and a haptic pointer 210 for exploring the real object 220. In one embodiment of the present invention, the force sensor 212 is attached to the haptic pointer 210 and detects a force at a point in contact with the object 220 when in contact with the object 220.

상기 서버(202)는, 사용자에 의해 햅틱 포인터의 위치가 조정되고, 상기 제1 햅틱 장치(206)의 햅틱 포인터와 상기 물체(220)와의 충돌 발생시 상기 클라이언트(200)로부터 수신되는 상기 제1 햅틱 장치(206)에 의해 감지된 힘 값에 대응하는 상기 실제 물체(220)의 강도를 촉감으로서 사용자에게 제공하는 제2 햅틱 장치(216), 상기 제2 햅틱 장치(216)의 햅틱 포인터의 위치를 상기 클라이언트(200)의 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호로서 상기 클라이언트(200)에 제공하고, 상기 클라이언트(200)로부터 수신되는 햅틱 데이터에 기반하여 햅틱 렌더링을 수행하여, 상기 제1 햅틱 장치(206)의 햅틱 포인터와 상기 물체(220)와의 충돌 발생시 상기 클라이언트(200)로부터 수신되는 상기 제1 햅틱 장치(206)에 의해 감지된 힘 값에 대응하는 상기 실제 물체(220)의 강도를 반력으로 변환하여 상기 제2 햅틱 장치(216)에 제공하기 위한 제2 제어부(218), 및 상기 클라이언트(200)로부터 수신되는 실제 물체(220)의 영상을 표시하기 위한 표시부(214)를 포함한다.The server 202, the position of the haptic pointer is adjusted by the user, the first haptic received from the client 200 when a collision between the haptic pointer of the first haptic device 206 and the object 220 occurs The position of the haptic pointer of the second haptic device 216, the second haptic device 216, which provides the user with the tactile intensity of the real object 220 corresponding to the force value sensed by the device 206 Haptic rendering based on haptic data received from the client 200 and provided to the client 200 as a position control signal for controlling the position of the haptic pointer of the first haptic device 206 of the client 200 By performing the, the haptic pointer of the first haptic device 206 when the collision of the object 220 occurs, the force corresponding to the force value detected by the first haptic device 206 received from the client 200 A second control unit 218 for converting the intensity of the real object 220 into a reaction force and providing it to the second haptic device 216, and displaying an image of the real object 220 received from the client 200 It includes a display unit 214 for.

상기 베이스 벡터의 길이는 상기 제1 햅틱 장치(206)의 햅틱 포인터와 상기 물체(220)와의 최초 충돌 발생시 상기 서버(202)로부터 수신되는 제2 햅틱 장치(216)의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이이다.The length of the base vector is determined by the position of the haptic pointer of the second haptic device 216 received from the server 202 when the first collision between the haptic pointer of the first haptic device 206 and the object 220 occurs. 1 is the length of the base vector minus the position of the haptic pointer of the haptic device 206.

상기 제2 제어부(218)는 햅틱 렌더링 수행시, 상기 클라이언트(200)로부터 수신되는 상기 클라이언트(200)의 제1 햅틱 장치(206)의 햅틱 포인터의 위치, 상기 베이스 벡터의 길이, 상기 감지된 힘 값 및 상기 제2 햅틱 장치(216)의 햅틱 포인터의 위치에 기반하여 상기 반력을 계산함으로써, 상기 클라이언트(200)로부터 수신되는 이산적인 힘 값들을 연속적인 값들로 보간한다. 이산적인 힘 값들을 연속적인 값들로 보간함으로써, 사용자는 실제와 유사한 매끄러운 햅틱 피드백을 경험할 수 있다.When performing the haptic rendering, the second control unit 218 receives the position of the haptic pointer of the first haptic device 206 of the client 200 received from the client 200, the length of the base vector, and the sensed force. By calculating the reaction force based on a value and the position of the haptic pointer of the second haptic device 216, discrete force values received from the client 200 are interpolated into successive values. By interpolating discrete force values into successive values, the user can experience smooth haptic feedback that is realistic.

상기 반력은 상기 클라이언트(200)로부터 수신되는 힘 값과 힘 스케일과 정규화된 방향 벡터의 길이를 곱하여 계산되고, 상기 힘 스케일은 현재의 방향 벡터의 길이를 최초 충돌이 발생했을 때의 방향 벡터의 길이인 베이스 벡터의 길이로 나눈 값이며, 상기 방향 벡터는 상기 제2 햅틱 장치(216)의 현재의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 뺀 것이다.The reaction force is calculated by multiplying the force value received from the client 200 by the force scale and the length of the normalized direction vector, and the force scale is the length of the current direction vector when the first collision occurs. It is a value divided by the length of the in-base vector, and the direction vector is obtained by subtracting the position of the haptic pointer of the first haptic device 206 from the position of the current haptic pointer of the second haptic device 216.

도 3은 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 시스템의 개념적인 구조를 도시한 것이다.3 shows a conceptual structure of a haptic interaction system for remote sensing according to an embodiment of the present invention.

도 3을 참조하면, 단계 S314에서 클라이언트(200)가 카메라(204)로부터 실제 물체(220)의 영상 데이터를 수신하고, 단계 316에서 클라이언트(200)가 영상 데이터를 서버(202)로 송신한다.Referring to FIG. 3, in step S314, the client 200 receives the image data of the real object 220 from the camera 204, and in step 316, the client 200 transmits the image data to the server 202.

단계 S318에서 서버(202)가 영상 데이터를 수신하여 표시부(214)에 표시한다.In step S318, the server 202 receives the image data and displays it on the display unit 214.

단계 S300에서 서버(202)가, 서버(202)의 햅틱 데이터를 클라이언트(200)로 전송한다.In step S300, the server 202 transmits the haptic data of the server 202 to the client 200.

단계 S302에서 클라이언트(200)가 서버(202)의 햅틱 데이터를 수신하고, 단계 S304에서 클라이언트(200)가 서버(202)로부터 수신된 햅틱 데이터를 클라이언트(200)의 햅틱 장치에 적용한다.In step S302, the client 200 receives the haptic data of the server 202, and in step S304, the client 200 applies the haptic data received from the server 202 to the haptic device of the client 200.

단계 S306에서 클라이언트(200)가 힘 센서(212)로부터 힘 값을 수신하고, 단계 S308에서 클라이언트(200)가 클라이언트(200)의 햅틱 데이터와 힘 값을 서버(202)로 송신한다.In step S306, the client 200 receives the force value from the force sensor 212, and in step S308, the client 200 transmits the haptic data and force value of the client 200 to the server 202.

단계 S310에서 서버(202)가 클라이언트(200)의 햅틱 데이터 및 힘 값을 수신하고, 단계 S312에서 서버(202)가 햅틱 데이터 및 힘 값을 서버(202)의 햅틱 장치(216)에 적용한다.In step S310, the server 202 receives the haptic data and force values of the client 200, and in step S312, the server 202 applies the haptic data and force values to the haptic device 216 of the server 202.

라이브 영상 전송 프로세스는 햅틱 데이터 전송과 별도로 수행된다. 그것은 클라이언트(202)의 카메라(204)로 캡처한 영상 정보를 수신하고 서버(202)의 표시부(214)인 모니터에 라이브 영상 정보를 표시하는 프로세스이다. 사용자는 라이브 영상을 통해 원격지의 상황을 인식할 수 있으며 원격 상황에 대해 적절한 제어를 수행할 수 있다.The live image transmission process is performed separately from the haptic data transmission. It is a process of receiving image information captured by the camera 204 of the client 202 and displaying live image information on a monitor that is the display unit 214 of the server 202. The user can recognize the remote situation through live video and perform appropriate control on the remote situation.

클라이언트(200)의 카메라(204)는 원격 모바일 탐지 로봇의 눈으로 작동할 수 있으며 햅틱 장치(206)는 로봇의 팔이 될 수 있다. 클라이언트(200)의 햅틱 장치(206)는 서버(202)의 햅틱 장치(216)의 위치만을 나타내는데 필요하기 때문에, 햅틱 장치보다는 로봇 팔과 같은 다른 기계 장치로 교체될 수 있다. 따라서 본 발명은 위험한 장소를 탐색하기 위한 자율 이동 로봇 또는 로봇 차량에 적용될 수 있다.The camera 204 of the client 200 may act as the eye of a remote mobile detection robot and the haptic device 206 may be the arm of the robot. Since the haptic device 206 of the client 200 is only needed to indicate the location of the haptic device 216 of the server 202, it can be replaced with another mechanical device such as a robotic arm rather than a haptic device. Therefore, the present invention can be applied to an autonomous mobile robot or a robot vehicle for searching for a dangerous place.

구현avatar

크로스 플랫폼 C++ 시뮬레이션 프레임워크인 CHAI3D[14]를 사용하여 본 발명에서 제안된 시스템을 위한 소프트웨어 환경을 구성한다. 서버(202)와 클라이언트(200) 간의 통신은 윈도우(Windows) 소켓 라이브러리를 사용하여 구현된다. 프로토콜은 실시간 고속 처리를 요구하기 때문에 TCP(전송 제어 프로토콜)보다는 UDP(사용자 데이터그램 프로토콜)가 선택된다. 원격지에 존재하는 물체(220)에 대한 반력을 얻기 위해, 클라이언트(200)의 햅틱 포인터는 제1 제어부(208)인 아두이노 우노(Arduino Uno) 마이크로 컨트롤러에 의해 제어되는 힘 센서(212)인 힘 감지 레지스터(Interlink Electronics FSR 400)에 연결된다. 웹캠을 포함하는 카메라(204)에서 영상 정보를 캡처하고, 인코딩하며 디코딩하는 프로세스는 OpenCV에서 구현된다. 실험을 위한 컴퓨팅 환경은 표 1에 나와 있다.Using the cross-platform C++ simulation framework CHAI3D[14], we construct a software environment for the system proposed in the present invention. Communication between the server 202 and the client 200 is implemented using a Windows socket library. Because the protocol requires real-time high-speed processing, UDP (User Datagram Protocol) is chosen over TCP (Transmission Control Protocol). The haptic pointer of the client 200 is a force that is a force sensor 212 that is controlled by the Arduino Uno microcontroller, which is the first control unit 208, in order to obtain a reaction force against the object 220 present at a remote location. It is connected to a sense resistor (Interlink Electronics FSR 400). The process of capturing, encoding and decoding video information from the camera 204 including the webcam is implemented in OpenCV. The computing environment for the experiment is shown in Table 1.

Figure 112018087470313-pat00001
Figure 112018087470313-pat00001

도 4의 (a)는 클라이언트(200)의 제1 햅틱 장치(206), 도 4의 (b)는 서버(202) 표시부(214) 스크린샷, 도 4의 (c)는 서버(202)의 제2 햅틱 장치(216)를 도시한 것이다.4(a) is a first haptic device 206 of the client 200, FIG. 4(b) is a screenshot of the server 202 display 214, and FIG. 4(c) is a server 202 The second haptic device 216 is illustrated.

네트워크(222)를 통해 서버(202)에서 클라이언트(200)로 전송되는 정보는 도 5의 좌측 데이터 구조에 표시된 것과 같이 정의된다. 도 5의 우측 데이터 구조는 클라이언트(200)에서 서버(202)로 전송되는 정보를 보여준다.Information transmitted from the server 202 to the client 200 through the network 222 is defined as shown in the left data structure of FIG. 5. The right data structure of FIG. 5 shows information transmitted from the client 200 to the server 202.

위의 햅틱 데이터를 전송, 수신 및 처리하는 프로세스가 도 6 및 도 7에 도시된다.The process of transmitting, receiving and processing the above haptic data is shown in FIGS. 6 and 7.

도 6을 참조하면, 단계 S600에서 클라이언트(200)는 서버(202)로부터 입력된 데이터가 존재하는지를 반복적으로 검사한다. 해당 데이터를 감지하면 단계 S608에서 위치 데이터를 서버(202)의 최신 데이터로 갱신하고, 단계 S602에서 햅틱 포인터를 가장 최근 위치로 이동시킨다. 단계 S604에서 햅틱 포인터가 이동되는 위치에서 힘 센서(212)로부터 힘 값을 읽고, 단계 S606에서 힘 값과 현재 위치 값을 서버(202)로 전송한다. 이 프로세스는 애플리케이션이 끝날 때까지 반복된다.Referring to FIG. 6, in step S600, the client 200 repeatedly checks whether data input from the server 202 exists. When the corresponding data is detected, the location data is updated to the latest data of the server 202 in step S608, and the haptic pointer is moved to the most recent location in step S602. In step S604, the force value is read from the force sensor 212 at the position where the haptic pointer is moved, and in step S606, the force value and the current position value are transmitted to the server 202. This process is repeated until the application ends.

도 7을 참조하면, 단계 S700에서 서버(202)는 클라이언트(200)로부터 데이터가 수신되는지 여부를 지속적으로 확인한다. 클라이언트(200)로부터 데이터가 수신되는 경우 단계 S708에서 위치 데이터를 최신 데이터로 갱신한다. 단계 S702에서 서버(202)는 클라이언트(200) 측에서 충돌이 발생하는지를 확인한다. 충돌이 클라이언트(200) 측에서 발생하면, 단계 S704에서 서버(202)는 클라이언트(202)의 탐사(햅틱) 데이터에 따라 햅틱 렌더링을 수행한다. 충돌이 발생하지 않으면 단계 S706에서 서버(202)의 햅틱 포인터의 현재 위치가 클라이언트(202)로 전송된다. 이 프로세스는 애플리케이션이 끝날 때까지 반복된다. 서버(202)의 햅틱 렌더링은 사용자가 원격지에 존재하는 실제 물체(220)의 촉감을 느낄 수 있도록 반력(force feedback)을 계산하는 과정이다.Referring to FIG. 7, in step S700, the server 202 continuously checks whether data is received from the client 200. When data is received from the client 200, the position data is updated to the latest data in step S708. In step S702, the server 202 checks whether a collision occurs on the client 200 side. If a collision occurs on the client 200 side, in step S704, the server 202 performs haptic rendering according to the exploration (haptic) data of the client 202. If no collision occurs, in step S706, the current location of the haptic pointer of the server 202 is transmitted to the client 202. This process is repeated until the application ends. The haptic rendering of the server 202 is a process of calculating the force feedback so that the user can feel the tactile feel of the real object 220 existing in the remote location.

서버(202)에서 수행되는 햅틱 렌더링 알고리즘은 도 8에 요약되어 있다.The haptic rendering algorithm performed on the server 202 is summarized in FIG. 8.

서버(202)의 햅틱 렌더링 알고리즘은 클라이언트(200)로부터 수신된 힘 센서(212)의 값을 검사함으로써 충돌이 감지되었는지 여부를 검사하는 것으로 시작한다. 이 값이 0이면 충돌이 발생하지 않은 것이다. 충돌이 발생하면 현재의 서버(202) 위치와 현재의 클라이언트(200) 위치를 빼서 방향 벡터가 획득된다. 힘 값은 방향 벡터의 정규화된 값에 힘 벡터를 곱하여 계산된다. 힘 벡터는 힘 센서 값과 힘 스케일 값의 곱에 의해 계산된다. 힘 스케일 값은 현재의 방향 벡터의 길이를 첫 번째 충돌 순간의 방향 벡터에 해당하는 기본 벡터(base vector)의 길이로 나눈 값이다.The haptic rendering algorithm of the server 202 starts by checking whether a collision has been detected by checking the value of the force sensor 212 received from the client 200. If this value is 0, no collision has occurred. When a collision occurs, the direction vector is obtained by subtracting the current server 202 location and the current client 200 location. The force value is calculated by multiplying the normalized value of the direction vector by the force vector. The force vector is calculated by multiplying the force sensor value and the force scale value. The force scale value is the length of the current direction vector divided by the length of the base vector corresponding to the direction vector at the moment of the first collision.

도 9는 힘 값의 계산을 보여준다. 서버(202)의 햅틱 포인터가 현재 cp(클라이언트 위치)를 따라, sp0(서버 위치 0)에서 sp1로 이동하고 그 후 sp2로 이동하면, 힘 스케일 값들은 현재의 힘 벡터를 베이스 벡터의 길이로 나눔으로써 계산된다.9 shows the calculation of the force value. When the haptic pointer of the server 202 moves from sp0 (server position 0) to sp1 following the current cp (client position) and then to sp2, the force scale values divide the current force vector by the length of the base vector. Is calculated.

힘 스케일을 곱하는 목적은 빠른 햅틱 렌더링 주파수(1000㎐)에 따라 클라이언트(200)로부터 수신된 이산적인 힘 값들을 연속적인 햅틱 값들로 보간하는 것이다. 이렇게 이산적인 힘 값들을 연속적인 햅틱 값들로 보간함으로써, 사용자는 실제와 유사한 매끄러운 햅틱 피드백을 경험할 수 있다.The purpose of multiplying the force scale is to interpolate discrete force values received from the client 200 into successive haptic values according to a fast haptic rendering frequency (1000 Hz). By interpolating these discrete force values into successive haptic values, the user can experience smooth haptic feedback that is realistic.

이산적인 값들이 발생하는 이유는 햅틱 렌더링 속도가 가장 최근의 위치 데이터의 갱신 속도보다 빠르기 때문이다. 힘 계산의 최종 값은 서버(202)의 햅틱 장치에 적용된다.The reason that discrete values occur is that the haptic rendering speed is faster than the update rate of the most recent location data. The final value of the force calculation is applied to the haptic device of the server 202.

도 10은 본 발명의 일 실시예에 의한 원격 탐사를 위한 햅틱 상호작용 방법의 흐름도를 도시한 도면이다.10 is a flowchart illustrating a haptic interaction method for remote sensing according to an embodiment of the present invention.

도 2 및 도 10을 참조하면, 단계 S1000에서 원격지의 클라이언트(200)가, 카메라(204)를 이용하여 실제 물체(220)의 영상을 획득하여 상기 클라이언트(200)와 실시간으로 통신하는 서버(202)로 전송한다.2 and 10, in step S1000, the remote client 200 acquires an image of the real object 220 using the camera 204 and communicates with the client 200 in real time (202). ).

단계 S1002에서 상기 서버(202)가 상기 클라이언트(200)로부터 수신되는 실제 물체(220)의 영상을 표시부(214)에 표시한다.In step S1002, the server 202 displays an image of the actual object 220 received from the client 200 on the display unit 214.

단계 S1004에서 상기 서버(202)가 사용자에 의한 제2 햅틱 장치(216)의 햅틱 포인터의 위치 조정에 따라, 상기 제2 햅틱 장치(216)의 햅틱 포인터의 위치를 상기 클라이언트(200)의 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호로서 상기 클라이언트(200)에 제공한다.In step S1004, the server 202 adjusts the position of the haptic pointer of the second haptic device 216 by the user, so that the position of the haptic pointer of the second haptic device 216 is the first of the client 200. The position control signal for controlling the position of the haptic pointer of the haptic device 206 is provided to the client 200.

단계 S1006에서 상기 클라이언트(200)가, 상기 서버(202)로부터 수신되는 위치 제어 신호에 따라 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 조정하여 상기 물체(220)와 접촉하고 접촉된 지점에서의 힘을 감지한다.In step S1006, the client 200 adjusts the position of the haptic pointer of the first haptic device 206 according to the position control signal received from the server 202 to contact and contact the object 220. Senses its power.

단계 S1008에서 상기 클라이언트(200)가, 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치, 상기 감지된 힘 값 및 베이스 벡터의 길이를 포함하는 햅틱 데이터를 상기 서버(202)로 전송한다.In step S1008, the client 200 transmits haptic data including the position of the haptic pointer of the first haptic device 206, the sensed force value, and the length of the base vector to the server 202.

단계 S1010에서 상기 서버(202)가, 상기 클라이언트(200)로부터 수신되는 햅틱 데이터에 기반하여 햅틱 렌더링을 수행하여, 상기 제1 햅틱 장치(206)의 햅틱 포인터와 상기 물체(220)와의 충돌 발생시 상기 클라이언트(200)로부터 수신되는 상기 제1 햅틱 장치(206)에 의해 감지된 힘 값에 대응하는 상기 실제 물체(220)의 강도를 반력으로 변환하여 상기 제2 햅틱 장치(216)에 제공한다.In step S1010, the server 202 performs haptic rendering based on haptic data received from the client 200, and when a collision occurs between the haptic pointer of the first haptic device 206 and the object 220, The intensity of the real object 220 corresponding to the force value sensed by the first haptic device 206 received from the client 200 is converted into a reaction force and provided to the second haptic device 216.

상기 베이스 벡터의 길이는 상기 제1 햅틱 장치(206)의 햅틱 포인터와 상기 물체(220)와의 최초 충돌 발생시 상기 서버(202)로부터 수신되는 제2 햅틱 장치(216)의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이이다.The length of the base vector is determined by the position of the haptic pointer of the second haptic device 216 received from the server 202 when the first collision between the haptic pointer of the first haptic device 206 and the object 220 occurs. 1 is the length of the base vector minus the position of the haptic pointer of the haptic device 206.

상기 서버(202)는 햅틱 렌더링 수행시, 상기 클라이언트(200)로부터 수신되는 상기 클라이언트(200)의 제1 햅틱 장치(206)의 햅틱 포인터의 위치, 상기 베이스 벡터의 길이, 상기 감지된 힘 값 및 상기 제2 햅틱 장치(216)의 햅틱 포인터의 위치에 기반하여 상기 반력을 계산함으로써, 상기 클라이언트(200)로부터 수신되는 이산적인 힘 값들을 연속적인 값들로 보간한다.The server 202, when performing haptic rendering, the position of the haptic pointer of the first haptic device 206 of the client 200 received from the client 200, the length of the base vector, the sensed force value and By calculating the reaction force based on the position of the haptic pointer of the second haptic device 216, discrete force values received from the client 200 are interpolated into successive values.

상기 반력은 상기 클라이언트(200)로부터 수신되는 힘 값과 힘 스케일과 정규화된 방향 벡터의 길이를 곱하여 계산되고, 상기 힘 스케일은 현재의 방향 벡터의 길이를 최초 충돌이 발생했을 때의 방향 벡터의 길이인 베이스 벡터의 길이로 나눈 값이며, 상기 방향 벡터는 상기 제2 햅틱 장치(216)의 현재의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치(206)의 햅틱 포인터의 위치를 뺀 것이다.The reaction force is calculated by multiplying the force value received from the client 200 by the force scale and the length of the normalized direction vector, and the force scale is the length of the current direction vector when the first collision occurs. It is a value divided by the length of the in-base vector, and the direction vector is obtained by subtracting the position of the haptic pointer of the first haptic device 206 from the position of the current haptic pointer of the second haptic device 216.

실험Experiment

도 11에 다른 강성을 갖는, 단단한 책, 고무 공 및 스폰지가 도시되어 있다. 사용자 테스트는 다음과 같은 설문 조사 질문에 따라 수행되었다.In Fig. 11, hard books, rubber balls and sponges with different stiffness are shown. User tests were conducted according to the following survey questions.

- 위치 동기화: 서버의 햅틱 포인터와 클라이언트의 햅틱 포인터가 동기화되어 있는가?-Location Synchronization: Is the server's haptic pointer synchronized with the client's haptic pointer?

- 햅틱 렌더링의 매끄러움: 힘 피드백의 변화가 매끄러운가?-Haptic rendering smoothness: Is the change in force feedback smooth?

- 강성의 감도: 강성의 정도가 실제와 비슷하게 느껴지는가?-Sensitivity of stiffness: Does the degree of stiffness feel realistic?

- 변형 가능한 물체에 대한 햅틱 사실성: 변형 가능한 물체의 경우, 변형의 느낌이 사실적인가?-Haptic realism for deformable objects: For deformable objects, is the feeling of deformation realistic?

사용자 연구를 통, 다양한 피드백이 테스트 참여자로부터 수집되었다. 일반적으로 시험 참가자는 세 개의 다른 물체(단단한 책, 고무 공 및 스폰지)에 대해 적절한 촉각 감각을 느꼈다. 그들은 또한 두 햅틱 포인터의 위치 동기화가 충분히 우수하다고 말했다. 또한, 햅틱 피드백은 강체에 부드럽게 전달되지만 변형 가능 물체에는 만족스럽지 못하다고 평가했다. 또한, 일부 불안정한 진동이 때때로 발생하고 첫 번째 충돌 순간의 시스템 응답성이 좋지 않다고 지적했다.Through user studies, various feedbacks were collected from test participants. In general, test participants felt adequate tactile sensation for three different objects (hard books, rubber balls, and sponges). They also said that the position synchronization of the two haptic pointers is good enough. In addition, it was evaluated that the haptic feedback is smoothly transmitted to the rigid body, but is not satisfactory for the deformable object. He also pointed out that some unstable vibrations sometimes occur and the system responsiveness at the moment of the first crash is poor.

표 2는 서버와 클라이언트의 두 햅틱 포인터 간의 유클리드 거리를 계산하기위한 실험 결과를 나타낸다. 데이터는 0.1초(10㎐) 간격으로 15초 동안 수집되었다. 실험 작업 공간에서, 햅틱 포인터는 x 좌표에 대해 -0.09에서 0.0945 사이(0.1845의 범위), y 좌표와 관련하여 -0.22에서 0.2145 사이(0.4345의 범위), 그리고 z 좌표에 대하여 -0.1에서 0.21 사이(0.31의 범위)에서 이동할 수 있다. 이 실험의 결과는 본 발명에서 제안된 시스템이 두 햅틱 포인터 간에 0.00679891(유클리드 거리)의 평균 오차를 가지고 비교적 잘 동기화될 수 있다는 것이 확인되었다. 이 실험 공간의 최대 유클리드 거리는 0.56473935이고 가능한 오차율의 간단한 계산은 1.2×e-10이다.Table 2 shows the experimental results for calculating the Euclidean distance between the two haptic pointers of the server and the client. Data were collected for 15 seconds at 0.1 second (10 ms) intervals. In the experimental workspace, the haptic pointer is -0.09 to 0.0945 for the x coordinate (range of 0.1845), -0.22 to 0.2145 for the y coordinate (range of 0.4345), and -0.1 to 0.21 for the z coordinate ( 0.31). The results of this experiment confirmed that the system proposed in the present invention can be relatively well synchronized with an average error of 0.00679891 (Euclidean distance) between two haptic pointers. The maximum Euclidean distance in this experimental space is 0.56473935 and a simple calculation of the possible error rate is 1.2×e -10 .

Figure 112018087470313-pat00002
Figure 112018087470313-pat00002

도 12는 서버의 햅틱 포인터와 클라이언트의 햅틱 포인터 간의 거리 오차를 도시한 것이다.12 shows the distance error between the haptic pointer of the server and the haptic pointer of the client.

결론conclusion

본 발명에서는 네트워킹된 햅틱 장치를 이용하여 원격지에 위치한 실제 물체의 촉각 감각을 사용자가 직접 느낄 수 있는 시스템을 제안한다. 이 시스템은 서버와 클라이언트로 구성되며 원격 클라이언트에서 얻은 데이터를 기반으로 햅틱 렌더링 프로세스를 수행한다. 본 발명에서 제안된 시스템을 평가하기 위해 여러 실험을 수행하였다. 결과적으로, 변형 가능한 물체에 대해 불안정한 진동이 발생할 수 있는 반면, 본 발명에 의한 시스템은 강체에 비교적 양호한 햅틱 피드백을 제공할 수 있는 것으로 확인되었다. 실험 결과는 첫 번째 충돌이 발생한 순간의 응답성에 대한 대기 시간을 나타낸다.The present invention proposes a system in which a user can directly sense the tactile sense of a real object located at a remote location using a networked haptic device. The system consists of a server and a client, and performs a haptic rendering process based on data obtained from a remote client. Several experiments were performed to evaluate the system proposed in the present invention. As a result, it has been found that while unstable vibrations may occur for deformable objects, the system according to the invention can provide relatively good haptic feedback to the rigid body. The experimental results indicate the waiting time for responsiveness at the moment of the first collision.

본 발명은 위험한 장소를 탐색하기 위한 자율 이동 로봇 또는 로봇 차량의 개발에 기여할 수 있다. 본 발명에 의한 시스템의 클라이언트 카메라는 로봇의 눈과 비슷하지만 클라이언트의 햅틱 장치는 기능적인 로봇 팔과 비슷하다.The present invention can contribute to the development of autonomous mobile robots or robotic vehicles for exploring dangerous places. The client camera of the system according to the invention is similar to the robot's eye, but the client's haptic device is similar to the functional robotic arm.

이상 본 발명을 구체적인 실시예를 통하여 상세하게 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.The present invention has been described in detail through specific examples, but this is for specifically describing the present invention, and the present invention is not limited to this, and to those of ordinary skill in the art within the technical spirit of the present invention. It will be apparent that the modification and improvement are possible.

본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로, 본 발명의 구체적인 보호 범위는 첨부된 청구범위에 의하여 명확해질 것이다.All simple modifications and variations of the present invention belong to the scope of the present invention, and the specific protection scope of the present invention will become apparent by the appended claims.

200 : 클라이언트 202 : 서버
204 : 카메라 206 : 제1 햅틱 장치
208 : 제1 제어부 210 : 햅틱 포인터
212 : 힘 센서 214 : 표시부
216 : 제2 햅틱 장치 218 : 제2 제어부
220 : 실제 물체 222 : 네트워크
200: client 202: server
204 camera 206 first haptic device
208: first control unit 210: haptic pointer
212: force sensor 214: display
216: second haptic device 218: second control unit
220: real object 222: network

Claims (6)

원격지의 클라이언트; 및
상기 클라이언트와 실시간으로 통신하는 서버를 포함하고,
상기 클라이언트는,
실제 물체의 영상을 획득하기 위한 카메라, 상기 물체와 접촉하여 접촉된 지점에서의 힘을 감지하고 상기 서버로부터 수신되는 위치 제어 신호에 따라 햅틱 포인터의 위치가 조정되는 제1 햅틱 장치, 및 상기 제1 햅틱 장치의 동작을 제어하고, 상기 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 감지된 힘 값 및 베이스 벡터의 길이를 포함하는 햅틱 데이터 및 상기 실제 물체의 영상을 상기 서버로 전송하고, 상기 서버로부터 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호를 수신하는 제1 제어부를 포함하며,
상기 서버는,
사용자에 의해 햅틱 포인터의 위치가 조정되고, 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 충돌 발생시 상기 클라이언트로부터 수신되는 상기 제1 햅틱 장치에 의해 감지된 힘 값에 대응하는 상기 실제 물체의 강도를 촉감으로서 사용자에게 제공하는 제2 햅틱 장치, 상기 제2 햅틱 장치의 햅틱 포인터의 위치를 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호로서 상기 클라이언트에 제공하고, 상기 클라이언트로부터 수신되는 햅틱 데이터에 기반하여 햅틱 렌더링을 수행하여, 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 충돌 발생시 상기 클라이언트로부터 수신되는 상기 제1 햅틱 장치에 의해 감지된 힘 값에 대응하는 상기 실제 물체의 강도를 반력으로 변환하여 상기 제2 햅틱 장치에 제공하기 위한 제2 제어부, 및 상기 클라이언트로부터 수신되는 실제 물체의 영상을 표시하기 위한 표시부를 포함하고,
상기 베이스 벡터의 길이는 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 최초 충돌 발생시 상기 서버로부터 수신되는 제2 햅틱 장치의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이인, 원격 탐사를 위한 햅틱 상호작용 시스템.
Remote clients; And
And a server communicating in real time with the client,
The client,
A camera for acquiring an image of a real object, a first haptic device that senses a force at a point in contact with the object and adjusts the position of a haptic pointer according to a position control signal received from the server, and the first Control the operation of a haptic device, transmit the haptic data including the position of the haptic pointer of the first haptic device, the sensed force value and the length of the base vector, and an image of the real object to the server, from the server It includes a first control unit for receiving a position control signal for controlling the position of the haptic pointer of the first haptic device,
The server,
The position of the haptic pointer is adjusted by the user, and the intensity of the actual object corresponding to a force value sensed by the first haptic device received from the client when a collision occurs between the haptic pointer of the first haptic device and the object A second haptic device that provides the user with a tactile sense, and provides the position of the haptic pointer of the second haptic device to the client as a position control signal for controlling the position of the haptic pointer of the first haptic device of the client, and the The haptic rendering is performed based on the haptic data received from the client, and when the collision between the haptic pointer of the first haptic device and the object occurs, the force corresponding to the force value sensed by the first haptic device received from the client A second control unit for converting the intensity of a real object into a reaction force and providing it to the second haptic device, and a display unit for displaying an image of the real object received from the client,
The length of the base vector is a base obtained by subtracting the position of the haptic pointer of the first haptic device from the position of the haptic pointer of the second haptic device received from the server when the first collision between the haptic pointer of the first haptic device and the object occurs. Haptic interaction system for remote sensing, which is the length of the vector.
청구항 1에 있어서,
상기 제2 제어부는 햅틱 렌더링 수행시, 상기 클라이언트로부터 수신되는 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 베이스 벡터의 길이, 상기 감지된 힘 값 및 상기 제2 햅틱 장치의 햅틱 포인터의 위치에 기반하여 상기 반력을 계산함으로써, 상기 클라이언트로부터 수신되는 이산적인 힘 값들을 연속적인 값들로 보간하는, 원격 탐사를 위한 햅틱 상호작용 시스템.
The method according to claim 1,
When performing the haptic rendering, the second control unit receives the position of the haptic pointer of the first haptic device of the client, the length of the base vector, the sensed force value, and the position of the haptic pointer of the second haptic device received from the client. A haptic interaction system for remote sensing, by interpolating discrete force values received from the client into successive values by calculating the reaction force based on the.
청구항 2에 있어서,
상기 반력은 상기 클라이언트로부터 수신되는 힘 값과 힘 스케일과 정규화된 방향 벡터의 길이를 곱하여 계산되고, 상기 힘 스케일은 현재의 방향 벡터의 길이를 최초 충돌이 발생했을 때의 방향 벡터의 길이인 베이스 벡터의 길이로 나눈 값이며, 상기 방향 벡터는 상기 제2 햅틱 장치의 현재의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 것을 특징으로 하는, 원격 탐사를 위한 햅틱 상호작용 시스템.
The method according to claim 2,
The reaction force is calculated by multiplying the force value received from the client by the force scale and the length of the normalized direction vector, and the force scale is the base vector that is the length of the current direction vector when the first collision occurs. The value divided by the length of the direction vector, wherein the direction vector is characterized in that the position of the haptic pointer of the first haptic device is subtracted from the position of the current haptic pointer of the second haptic device.
(a) 원격지의 클라이언트가, 카메라를 이용하여 실제 물체의 영상을 획득하여 상기 클라이언트와 실시간으로 통신하는 서버로 전송하는 단계;
(b) 상기 서버가 상기 클라이언트로부터 수신되는 실제 물체의 영상을 표시부에 표시하는 단계;
(c) 상기 서버가 사용자에 의한 제2 햅틱 장치의 햅틱 포인터의 위치 조정에 따라, 상기 제2 햅틱 장치의 햅틱 포인터의 위치를 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치를 제어하기 위한 위치 제어 신호로서 상기 클라이언트에 제공하는 단계;
(d) 상기 클라이언트가, 상기 서버로부터 수신되는 위치 제어 신호에 따라 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 조정하여 상기 물체와 접촉하고 접촉된 지점에서의 힘을 감지하는 단계;
(e) 상기 클라이언트가, 상기 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 감지된 힘 값 및 베이스 벡터의 길이를 포함하는 햅틱 데이터를 상기 서버로 전송하는 단계; 및
(f) 상기 서버가, 상기 클라이언트로부터 수신되는 햅틱 데이터에 기반하여 햅틱 렌더링을 수행하여, 상기 제1 햅틱 장치의 햅틱 포인터와 상기 물체와의 충돌 발생시 상기 클라이언트로부터 수신되는 상기 제1 햅틱 장치에 의해 감지된 힘 값에 대응하는 상기 실제 물체의 강도를 반력으로 변환하여 상기 제2 햅틱 장치에 제공하는 단계를 포함하고,
상기 베이스 벡터의 길이는 상기 제1 햅틱 장치의 제1 햅틱 포인터와 상기 물체와의 최초 충돌 발생시 상기 서버로부터 수신되는 제2 햅틱 장치의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 베이스 벡터의 길이인, 원격 탐사를 위한 햅틱 상호작용 방법.
(a) a client at a remote site, using a camera to obtain an image of a real object and transmitting it to a server that communicates with the client in real time;
(b) the server displaying an image of an actual object received from the client on a display unit;
(c) a position for controlling the position of the haptic pointer of the second haptic device by the user according to the position adjustment of the haptic pointer of the second haptic device by the user, to control the position of the haptic pointer of the first haptic device of the client Providing the client as a control signal;
(d) the client adjusting a position of a haptic pointer of the first haptic device according to a position control signal received from the server to contact the object and sensing the force at the contact point;
(e) the client transmitting haptic data including the position of the haptic pointer of the first haptic device, the sensed force value, and the length of the base vector to the server; And
(f) the server, by performing haptic rendering based on haptic data received from the client, by the first haptic device received from the client when a collision occurs between the haptic pointer of the first haptic device and the object And converting the intensity of the real object corresponding to the sensed force value into a reaction force and providing it to the second haptic device,
The length of the base vector determines the position of the haptic pointer of the first haptic device at the position of the haptic pointer of the second haptic device received from the server when the first collision between the first haptic pointer of the first haptic device and the object occurs. Haptic interaction method for remote sensing, which is the length of the subtracted base vector.
청구항 4에 있어서,
상기 서버는 햅틱 렌더링 수행시, 상기 클라이언트로부터 수신되는 상기 클라이언트의 제1 햅틱 장치의 햅틱 포인터의 위치, 상기 베이스 벡터의 길이, 상기 감지된 힘 값 및 상기 제2 햅틱 장치의 햅틱 포인터의 위치에 기반하여 상기 반력을 계산함으로써, 상기 클라이언트로부터 수신되는 이산적인 힘 값들을 연속적인 값들로 보간하는, 원격 탐사를 위한 햅틱 상호작용 방법.
The method according to claim 4,
When performing haptic rendering, the server is based on the position of the haptic pointer of the client's first haptic device, the length of the base vector, the sensed force value, and the position of the haptic pointer of the second haptic device received from the client. By calculating the reaction force, interpolating the discrete force values received from the client into successive values, a haptic interaction method for remote sensing.
청구항 5에 있어서,
상기 반력은 상기 클라이언트로부터 수신되는 힘 값과 힘 스케일과 정규화된 방향 벡터의 길이를 곱하여 계산되고, 상기 힘 스케일은 현재의 방향 벡터의 길이를 최초 충돌이 발생했을 때의 방향 벡터의 길이인 베이스 벡터의 길이로 나눈 값이며, 상기 방향 벡터는 상기 제2 햅틱 장치의 현재의 햅틱 포인터의 위치에서 상기 제1 햅틱 장치의 햅틱 포인터의 위치를 뺀 것을 특징으로 하는, 원격 탐사를 위한 햅틱 상호작용 방법.
The method according to claim 5,
The reaction force is calculated by multiplying the force value received from the client by the force scale and the length of the normalized direction vector, and the force scale is the base vector that is the length of the current direction vector when the first collision occurs. It is a value divided by the length of, and the direction vector is characterized by subtracting the position of the haptic pointer of the first haptic device from the position of the current haptic pointer of the second haptic device, the haptic interaction method for remote sensing.
KR1020180104753A 2018-09-03 2018-09-03 Haptic interaction system and method for probing real objects in remote places KR102132693B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180104753A KR102132693B1 (en) 2018-09-03 2018-09-03 Haptic interaction system and method for probing real objects in remote places

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180104753A KR102132693B1 (en) 2018-09-03 2018-09-03 Haptic interaction system and method for probing real objects in remote places

Publications (2)

Publication Number Publication Date
KR20200026596A KR20200026596A (en) 2020-03-11
KR102132693B1 true KR102132693B1 (en) 2020-07-13

Family

ID=69809692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180104753A KR102132693B1 (en) 2018-09-03 2018-09-03 Haptic interaction system and method for probing real objects in remote places

Country Status (1)

Country Link
KR (1) KR102132693B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100611680B1 (en) 2005-06-28 2006-08-14 한국과학기술연구원 Multi modal interaction-based remote meeting system
KR101522690B1 (en) 2014-07-29 2015-05-22 연세대학교 산학협력단 3d visuo-haptic display system and method based on perception for skin diagnosis
KR101791927B1 (en) 2016-06-10 2017-11-01 인천대학교 산학협력단 Method and apparatus for estimating roughness of skin surface for haptic feedback apparatus based on perceptual analysis

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100860412B1 (en) * 2007-02-02 2008-09-26 한국전자통신연구원 System and Method for haptic experience service
KR20150145590A (en) * 2014-06-20 2015-12-30 한국해양과학기술원 Remotely operated vehicle system for underwater work and the control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100611680B1 (en) 2005-06-28 2006-08-14 한국과학기술연구원 Multi modal interaction-based remote meeting system
KR101522690B1 (en) 2014-07-29 2015-05-22 연세대학교 산학협력단 3d visuo-haptic display system and method based on perception for skin diagnosis
KR101791927B1 (en) 2016-06-10 2017-11-01 인천대학교 산학협력단 Method and apparatus for estimating roughness of skin surface for haptic feedback apparatus based on perceptual analysis

Also Published As

Publication number Publication date
KR20200026596A (en) 2020-03-11

Similar Documents

Publication Publication Date Title
Leithinger et al. Physical telepresence: shape capture and display for embodied, computer-mediated remote collaboration
Gonzalez et al. Reach+ extending the reachability of encountered-type haptics devices through dynamic redirection in vr
Kumar et al. Hand data glove: A new generation real-time mouse for human-computer interaction
US9398252B2 (en) Information processing apparatus, information processing system and program
US20190050132A1 (en) Visual cue system
CN102779000A (en) User interaction system and method
WO2019087564A1 (en) Information processing device, information processing method, and program
KR20190059726A (en) Method for processing interaction between object and user of virtual reality environment
US11630633B1 (en) Collaborative system between a streamer and a remote collaborator
Noh et al. An HMD-based Mixed Reality System for Avatar-Mediated Remote Collaboration with Bare-hand Interaction.
Corradini et al. A map-based system using speech and 3D gestures for pervasive computing
Chen et al. Drawing elon musk: A robot avatar for remote manipulation
KR102546945B1 (en) A Mixed Reality Telepresence System for Dissimilar Spaces Using Full-Body Avatar
KR102132693B1 (en) Haptic interaction system and method for probing real objects in remote places
Irlitti et al. Volumetric mixed reality telepresence for real-time cross modality collaboration
US10713833B2 (en) Method and device for controlling 3D character using user's facial expressions and hand gestures
Zhang et al. Remotetouch: Enhancing immersive 3d video communication with hand touch
Choi et al. Haptic Interactions for Probing Real Objects in Remote Places
US20220383601A1 (en) Virtual avatars and physical object interaction in augmented reality applications
WO2023073991A1 (en) Information processing system, server device, information processing method, and program
KR20200012561A (en) System and method for game in virtual reality
JP5050919B2 (en) Remote conference system and control method thereof
Mohammad et al. Human adaptation to a miniature robot: Precursors of mutual adaptation
EP4217083A1 (en) Asymmetric presentation of an environment
Martinez-Hernandez et al. Towards a wearable interface for immersive telepresence in robotics

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant