KR102124748B1 - Collision prevention method for user of virtual reality system - Google Patents

Collision prevention method for user of virtual reality system Download PDF

Info

Publication number
KR102124748B1
KR102124748B1 KR1020190151154A KR20190151154A KR102124748B1 KR 102124748 B1 KR102124748 B1 KR 102124748B1 KR 1020190151154 A KR1020190151154 A KR 1020190151154A KR 20190151154 A KR20190151154 A KR 20190151154A KR 102124748 B1 KR102124748 B1 KR 102124748B1
Authority
KR
South Korea
Prior art keywords
character
area
obstacle
danger
user
Prior art date
Application number
KR1020190151154A
Other languages
Korean (ko)
Inventor
김현빈
송치현
Original Assignee
주식회사 삼우이머션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 삼우이머션 filed Critical 주식회사 삼우이머션
Priority to KR1020190151154A priority Critical patent/KR102124748B1/en
Application granted granted Critical
Publication of KR102124748B1 publication Critical patent/KR102124748B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0261System arrangements wherein the object is to detect trespassing over a fixed physical boundary, e.g. the end of a garden
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system

Abstract

The present invention relates to a method for sensing and preventing a risk of a user in an experience space experiencing virtual reality content, which is to previously sense and prevent a collision with an obstacle by a player who experiences virtual reality, and to prevent the player from moving outside a preset content area. To this end, the method of the present invention comprises the steps of: setting, by an area setting unit, an activity area and a risk area of a character operated to correspond to the movement of a user in an experience space experiencing virtual reality content; setting, by a safe effective area setting unit, a safe effective area of the character by receiving information in accordance with a user′s body type; searching for, by a position and posture search unit, the current position and posture information of a character which moved in the experience space; and sensing and notifying, by a risk sensing unit, the presence of the risk on the basis of the activity area and risk area of the character, the safe effective area of the character, the current position and posture information on the character, and obstacle information.

Description

가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지방법{Collision prevention method for user of virtual reality system}{Collision prevention method for user of virtual reality system} in the experience space to experience virtual reality content

본 발명은 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지방법에 관한 것으로서, 보다 상세하게는 가상현실을 체험하는 플레이어의 장애물 충돌을 미리 감지하여 예방하고, 기 설정된 콘텐츠 영역 밖으로 플레이어가 이동하지 않도록 하는 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지방법에 관한 것이다.The present invention relates to a method for detecting and preventing a user's risk in an experience space where virtual reality content is experienced, and more specifically, detecting and preventing an obstacle collision of a player experiencing virtual reality in advance and out of a preset content area. It relates to a method for detecting and preventing a user's risk in an experience space where virtual players are prevented from moving.

주변 위험 인식의 대부분은 시각 정보에서 기인하므로, 사용자의 시야를 완전히 차단하는HMD(Head Mounted Display)를 착용하는 가상 현실(Virtual Reality, VR) 환경에서 주변 환경에 의한 위험요소 인식이 필요하다. 실제 공간과 같은 가상 사물을 가상 현실에 배치하는 것으로 시각 정보를 제공할 수 있으나 플레이어의 몸의 움직임은 실제 공간과 가상 현실 환경을 완전히 일치시킬 수 없으므로 시각 정보에 대한 접촉 반응을 얻어 주변을 인식하는 것은 가상현실 체험 플레이어에게 장애물 충돌 등 상당한 위험을 줄 수 있는 문제점이 있다.Since most of the perception of the surrounding danger originates from visual information, it is necessary to recognize the risk factors by the surrounding environment in a virtual reality (VR) environment wearing a head mounted display (HMD) that completely blocks the user's view. It is possible to provide visual information by placing a virtual object such as a real space in the virtual reality, but the movement of the player's body cannot fully match the real space and the virtual reality environment. This has a problem that can pose a significant risk, such as an obstacle collision, to the virtual reality experience player.

대한민국 등록특허공보 제10-1659782(발명의 명칭 : 벽면 충돌을 고려한 사용자 시점의 3차원 실내공간정보 제공방법)Republic of Korea Patent Registration No. 10-1659782 (Name of the invention: a method for providing 3D indoor spatial information from the user's point of view considering wall collision)

따라서, 본 발명은 전술한 바와 같은 문제점을 해결하기 위하여 창출된 것으로서, 캐릭터의 안전 유효영역을 캐릭터의 중심 영역을 기준으로 원기둥으로 범위 지정하고, 캐릭터의 안전 유효영역 및 현재 캐릭터의 위치와 위험이 예상되는 영역(일예로서 장애물의 완충영역)과의 중첩이 발생하는지 여부를 확인하여 플레이어에게 충돌 위험 또는 콘텐츠 영역 이탈의 위험을 알리는 발명을 제공하는데 그 목적이 있다.Therefore, the present invention was created to solve the problems as described above, and the safety effective area of the character is designated as a cylinder based on the central area of the character, and the safety effective area of the character and the position and danger of the current character It is an object of the present invention to identify whether a collision with an expected area (for example, a buffer area of an obstacle) occurs, and to inform a player of a collision risk or a content area departure risk.

그러나, 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 본 발명의 목적은, 영역 설정부가 가상현실 콘텐츠를 체험하는 체험공간 내에서 사용자의 움직임에 상응하게 동작하는 캐릭터의 활동영역과 위험영역을 설정하는 단계, 안전 유효영역 설정부는 사용자의 체형에 따른 정보를 입력받아 캐릭터의 안전 유효영역을 설정하는 단계, 위치 및 자세 탐색부는 체험공간 내를 이동하는 캐릭터의 현재 위치 및 자세 정보를 탐색하는 단계, 및 위험 감지부는 설정된 캐릭터의 활동영역 및 위험영역, 캐릭터의 안전 유효영역, 캐릭터의 현재 위치와 자세 정보 및 장애물 정보를 바탕으로 위험 여부를 감지하여 알리는 단계를 포함하는 것을 특징으로 하는 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법을 제공함으로써 달성될 수 있다.The above-described object of the present invention is to set an activity area and a danger area of a character operating in correspondence with a user's movement in an experience space where the area setting unit experiences virtual reality content, and the safety effective area setting unit is configured to Setting the safe effective area of the character by receiving the information according to the step, the position and posture search unit searches the current position and posture information of the character moving in the experience space, and the risk detection unit is the set activity area and the danger area of the character , Detecting and notifying whether a danger is based on the safe effective area of the character, the current position and posture information of the character, and obstacle information, and detecting the danger of the user in the experience space experiencing the virtual reality content, This can be achieved by providing a method of prevention.

전술한 바와 같은 본 발명에 의하면 캐릭터의 안전 유효영역을 원기둥으로 범위 지정하고, 캐릭터의 안전 유효영역 및 현재 캐릭터의 위치와 위험이 예상되는 영역(일예로서 장애물의 완충영역)과의 중첩이 발생하는지 여부를 확인하여 플레이어에게 충돌 위험 또는 콘텐츠 영역 이탈의 위험을 알릴 수 있는 효과가 있다.According to the present invention as described above, the safe effective area of the character is designated as a cylinder, and whether the overlap between the safe effective area of the character and the current position of the character and the area where danger is expected (eg, a buffer area of an obstacle) occurs. This has the effect of notifying the player about the risk of collision or the risk of leaving the content area.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1 및 도 2는 본 발명의 일실시예에 따른 가상현실 콘텐츠를 체험하는 체험공간 내에서의 충돌 감지 및 방지 장치에 대한 개략적인 도면이고,
도 3은 본 발명의 일실시예에 따른 가상현실 콘텐츠를 체험하는 체험공간을 개략적으로 도시한 도면이고,
도 4 및 도 5는 본 발명의 일실시예에 따른 캐릭터 또는 사용자의 안전 유효영역을 설정하고 자세 정보를 수집하기 위한 도면이고,
도 6은 본 발명의 일실시예에 따른 사용자 또는 캐릭터가 활동영역을 이탈하여 위험 신호를 사용자에게 알리는 것을 도시한 도면이고,
도 7은 본 발명의 일실시예에 따른 사용자 또는 캐릭터가 장애물의 북쪽에서 접근하여 장애물과 충돌할 때 사용자에게 미리 위험 신호를 알리는 것을 도시한 도면이고,
도 8은 본 발명의 일실시예에 따른 사용자 또는 캐릭터가 장애물의 좌측에서 접근하여 장애물과 충돌할 때 사용자에게 미리 위험 신호를 알리는 것을 도시한 도면이고,
도 9는 본 발명의 일실시예에 따른 사용자 또는 캐릭터가 장애물의 꼭짓점쪽으로 접근하여 장애물과 충돌할 때 사용자에게 미리 위험 신호를 알리는 것을 도시한 도면이고,
도 10은 본 발명의 일실시예에 따른 사용자 또는 캐릭터가 장애물의 밑을 통과할 때 위험 신호가 생성되는 것을 도시한 도면이다.
The following drawings attached to the present specification illustrate a preferred embodiment of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention, and therefore the present invention is limited to those described in those drawings. It should not be construed limitedly.
1 and 2 is a schematic diagram of a collision detection and prevention device in the experience space to experience the virtual reality content according to an embodiment of the present invention,
3 is a diagram schematically showing an experience space for experiencing virtual reality content according to an embodiment of the present invention,
4 and 5 are diagrams for setting a safe effective area of a character or a user and collecting posture information according to an embodiment of the present invention,
6 is a view showing that a user or character according to an embodiment of the present invention deviates from an activity area and informs a user of a danger signal,
7 is a view showing a user or a character according to an embodiment of the present invention to inform the user of a danger signal in advance when approaching from the north of the obstacle and colliding with the obstacle;
8 is a view showing a user or a character according to an embodiment of the present invention approaching from the left side of an obstacle and notifying the user of a danger signal in advance when colliding with the obstacle;
9 is a view showing a user or a character according to an embodiment of the present invention to inform the user of a danger signal in advance when approaching the vertex of the obstacle and colliding with the obstacle;
10 is a diagram showing that a danger signal is generated when a user or character passes under an obstacle according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 바람직한 일실시예에 대해서 설명한다. 또한, 이하에 설명하는 일실시예는 특허청구범위에 기재된 본 발명의 내용을 부당하게 한정하지 않으며, 본 실시 형태에서 설명되는 구성 전체가 본 발명의 해결 수단으로서 필수적이라고는 할 수 없다. 또한, 종래 기술 및 당업자에게 자명한 사항은 설명을 생략할 수도 있으며, 이러한 생략된 구성요소(방법) 및 기능의 설명은 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 충분히 참조될 수 있을 것이다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings. In addition, the embodiment described below does not unduly limit the content of the present invention as set forth in the claims, and the entire configuration described in this embodiment cannot be said to be essential as a solution to the present invention. In addition, descriptions that are apparent to those skilled in the art and those skilled in the art may be omitted, and descriptions of the omitted components (methods) and functions may be sufficiently referenced without departing from the technical spirit of the present invention.

본 발명의 일실시예에 따른 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법 및 장치는 헤드 마운티드 디스플레이(Head mounted display, HMD)를 착용하고 가상현실 콘텐츠를 체험하는 중에 기 설정된 영역 밖으로 사용자가 이동하거나 또는 장애물이 가상현실 콘텐츠 상에서 나타난 경우에 위험을 알리도록 한 방법 및 장치이다. 이하에서는 첨부된 참고도면을 참고하여 본 발명의 일실시예에 따른 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법 및 장치를 설명한다. A method and apparatus for detecting and preventing a user's risk in an experience space for experiencing virtual reality content according to an embodiment of the present invention may be worn while wearing a head mounted display (HMD) and experiencing virtual reality content. It is a method and apparatus for notifying a danger when a user moves out of a set area or an obstacle appears on virtual reality content. Hereinafter, a method and apparatus for detecting and preventing danger of a user in an experience space for experiencing virtual reality content according to an embodiment of the present invention will be described with reference to the accompanying reference drawings.

도 3에 도시된 바와 같이, HMD 사용자 또는 착용자(이하 사용자라 함)는 가상현실 콘텐츠 체험공간(110) 내를 이동할 수 있다. 따라서 사용자를 가상현실 체험 플레이어라 할 수도 있다. 이때, 사용자가 활동하는 활동영역은 안전영역(111)과 완충영역(112)을 포함하고, 위험영역(113)은 사용자가 가상 체험공간에서 콘텐츠의 설정 경계 범위를 벗어나는 위험 영역이다. 위험영역(113)은 일예로서 도 3에 도시된 바와 같이 벽(131,132,133,134)이거나 또는 도면에는 미도시되어 있으나 콘텐츠의 설정 경계 범위를 벗어난 영역을 의미한다. 가상 체험공간에는 장애물(120)이 있을 수 있으며, 사용자는 장애물(120)을 피해 이동해야 한다. 장애물(120)은 일정 높이와 면적을 가지도록 생성되어 바닥에 놓이거나 또는 천장에 매달려 있을 수도 있다. As shown in FIG. 3, an HMD user or a wearer (hereinafter referred to as a user) may move within the virtual reality content experience space 110. Therefore, the user may be referred to as a virtual reality experience player. At this time, the active area in which the user is active includes the safe area 111 and the buffer area 112, and the dangerous area 113 is a dangerous area in which the user deviates from the set boundary of content in the virtual experience space. The danger zone 113 is an example, as shown in FIG. 3, the walls 131, 132, 133, 134, or not shown in the drawing, but means an area outside the set boundary of the content. There may be an obstacle 120 in the virtual experience space, and the user must move away from the obstacle 120. The obstacle 120 may be created to have a certain height and area, and may be placed on the floor or suspended from the ceiling.

도 1에 도시된 영역 설정부(210)가 가상현실 콘텐츠를 체험하는 체험공간(110) 내에서 사용자의 움직임에 상응하게 동작하는 캐릭터의 활동영역(111,112)과 위험영역(113)을 설정한다. 캐릭터의 활동영역(111,112)은 후술하는 수학식 1에 의해 정의될 수 있다. 활동영역(111,112)과 위험영역(113)은 가상현실 체험 콘텐츠 제작 시점에서 이미 만들어지며, 각각의 좌표를 임의적으로 얻을 수 있다. 상술한 바와 같이 HMD를 착용하는 사용자가 가상현실 체험 콘텐츠에 나타난 장애물(120)을 회피하거나 위험영역(113)으로 이동하지 않도록 위험 감지의 필요성이 있으며 이하에서 자세히 설명하기로 한다.The region setting unit 210 illustrated in FIG. 1 sets the character's activity regions 111 and 112 and the danger region 113 that correspond to a user's movement within the experience space 110 for experiencing virtual reality content. The activity areas 111 and 112 of the character may be defined by Equation 1 described later. The activity areas 111 and 112 and the danger area 113 are already created at the time of production of the virtual reality experience content, and each coordinate can be arbitrarily obtained. As described above, it is necessary to detect the danger so that the user wearing the HMD does not avoid the obstacle 120 shown in the virtual reality experience content or moves to the danger area 113, and will be described in detail below.

다음으로, 안전 유효영역 설정부(220)는 사용자의 체형에 따른 정보를 사용자 신체 측정부(300)로부터 입력받아 캐릭터의 안전 유효영역(141)을 설정한다. 안전 유효영역 설정부(220)는 폭 설정부(221)와 길이 설정부(222)를 포함한다. 폭 설정부(221)는 도 4에 도시된 바와 같이 안전 유효영역(141)의 폭(w)을 설정하며, 길이 설정부(222)는 안전 유효영역(141)의 길이 또는 높이(h)를 설정한다. 안전 유효영역(141)은 사용자 또는 캐릭터의 안전 유효범위로서, 폭(w)은 사용자가 양팔을 최대한 벌렸을 때를 기준으로 산출되고, 높이 또는 길이(h)는 사용자가 팔을 뻗지 않으면 자기 신장과 같고, 사용자가 팔을 위로 뻗으면 뻗은 높이만큼이 신장에 더해져 높이(h)가 되고(대략적으로 신장의 130%로 산출함), 또한 도 5와 같이 사용자가 몸을 숙이거나 구부리는 경우에는 사용자의 머리가 얼마나 내려갔는지에 따라 지면과 머리까지의 높이가 된다. 또한, 안전 유효영역 설정부(220)는 위치 및 자세 탐색부(230)에서 제공된 캐릭터의 현재 자세 정보를 기초로 안전 유효영역(141)을 현재 상황에 맞게 변경시킨다. Next, the safety effective area setting unit 220 receives information according to the user's body type from the user's body measurement unit 300 to set the safety effective area 141 of the character. The safety effective area setting unit 220 includes a width setting unit 221 and a length setting unit 222. The width setting unit 221 sets the width w of the safety effective area 141 as shown in FIG. 4, and the length setting unit 222 determines the length or height h of the safety effective area 141. Set. The safe effective area 141 is the safe effective range of the user or character, and the width w is calculated based on when the user has the most open arms, and the height or length h is self-extension if the user does not extend the arm. When the user extends the arm upward, the height is added to the height (h) (approximately calculated as 130% of the height), and also when the user bows or bends as shown in FIG. Depending on how much the user's head goes down, it becomes the height to the ground and head. In addition, the safe effective area setting unit 220 changes the safe effective area 141 according to the current situation based on the current posture information of the character provided by the position and posture search unit 230.

도 1에 도시된 사용자 단말부(400)는 HMD부(410)와 컨트롤러부(420)를 포함한다. HMD부(410)는 사용자가 머리에 착용하는 장치로서 사용자의 현재 위치와 자세에 상응하는 3차원 좌표를 위치 및 자세 탐색부(230)로 전송한다. 또한, 컨트롤러부(420)는 사용자가 한 손 또는 양손에 파지하며 휴대하는 것으로서 사용자가 팔을 위로 뻗었으면 이를 알 수 있는 3차원 좌표를 생성하여 위치 및 자세 탐색부(230)로 전송한다. The user terminal 400 illustrated in FIG. 1 includes an HMD unit 410 and a controller unit 420. The HMD unit 410 is a device worn by the user on the head and transmits three-dimensional coordinates corresponding to the user's current location and posture to the location and posture search unit 230. In addition, the controller unit 420 is a user holding one hand or both hands and carrying it, generates a three-dimensional coordinate that can know when the user extends the arm and transmits it to the position and posture searcher 230.

다음으로, 위치 및 자세 탐색부(230)는 HMD부(410)와 컨트롤러부(420)에서 각각 제공하는 3차원 좌표를 통해 체험공간 내를 이동하는 사용자가 머리를 숙이고 있는지 또는 팔을 뻗고 있는지 등의 사용자의 현재 위치 좌표와 사용자의 자세를 파악할 수 있다. Next, the location and posture search unit 230 is a user moving in the experience space through the three-dimensional coordinates provided by the HMD unit 410 and the controller unit 420, respectively, whether the head is bowed or an arm is extended. The user's current position coordinates and the user's posture can be grasped.

다음으로, 위험 감지부(240)는 설정된 캐릭터의 활동영역(111,112) 및 위험영역(113), 캐릭터의 안전 유효영역(141), 캐릭터의 현재 위치와 자세 정보 및 장애물 정보를 바탕으로 위험 여부를 감지한다. 이때, 캐릭터의 안전 유효영역(141)은 상술한 바와 같이 지속적으로 변경될 수 있다.Next, the danger detection unit 240 is based on the set character's activity area (111,112) and the danger area 113, the character's safety effective area 141, the character's current position and posture information and obstacle information to determine whether it is dangerous. Detect. At this time, the safe effective area 141 of the character may be continuously changed as described above.

위험 감지부(240)는 도 6에 도시된 바와 같이 제1,2,3 위험 감지부(241,242,243)를 포함한다. The risk detector 240 includes first, second and third risk detectors 241, 242 and 243 as shown in FIG. 6.

제1 위험 감지부(241)는 캐릭터의 활동영역(111,112) 및 위험영역(113)과 캐릭터의 안전 유효영역(141)을 바탕으로 제1 위험 여부를 감지한다. 즉, 제1 위험 감지부(240)는 다음의 수학식 1,2,3에 의해 캐릭터의 현재 좌표가 안전영역 내에 있음을 감지한다.The first danger detection unit 241 detects the first danger based on the character's active areas 111 and 112 and the danger area 113 and the character's safety effective area 141. That is, the first danger detector 240 detects that the current coordinates of the character are in the safe area by the following equations (1, 2, 3).

[수학식 1][Equation 1]

Figure 112019120328202-pat00001
Figure 112019120328202-pat00001

수학식 1에 의해 캐릭터의 활동영역이 정의되며, xpg0와 ypg0는 캐릭터의 활동영역의 중심 좌표의 x성분과 y성분을 나타내며, wpg는 캐릭터의 활동영역의 x축 길이, hpg는 캐릭터의 활동 영역의 y축 길이를 하고, xpg, ypg는 2차원 좌표로서 캐릭터의 활동영역 내에 있는 임의의 좌표이다.The character's active area is defined by Equation 1, where x pg0 and y pg0 denote the x- and y-components of the center coordinates of the character's active area, w pg is the length of the x-axis of the character's active area, and h pg is The y-axis length of the character's active area, x pg and y pg are two-dimensional coordinates, which are arbitrary coordinates within the character's active area.

또한, 수학식에 포함된 "∧" 표시는 각각의 조건을 모두 만족하는 "and 조건"을 의미한다.In addition, the "∧" mark included in the equation means "and condition" satisfying each condition.

[수학식 2][Equation 2]

Figure 112020026021906-pat00002
Figure 112020026021906-pat00002

수학식 2에 의해 캐릭터의 안전 유효영역이 정의되며, xuo와 yuo는 캐릭터의 안전 유효영역 내의 임의의 점의 x성분과 y성분을 나타내며, xu와 yu는 캐릭터의 현재 x좌표와 y좌표를 나타내며, hu는 사용자의 신장을 나타낸다 The character's safe effective area is defined by Equation 2, where x uo and y uo denote the x and y components of any point in the character's safe effective area, and x u and y u represent the character's current x coordinate. y coordinate, h u represents the user's height

[수학식 3][Equation 3]

Figure 112019120328202-pat00003
Figure 112019120328202-pat00003

수학식 1 및 수학식 2에 의해 수학식 3이 도출되고, 수학식 3을 만족하면 캐릭터의 현재 좌표가 안전영역(111) 내에 있는 것을 나타낸다. 따라서 수학식 3을 만족하지 않는 경우 제1 위험 감지부는 사용자에게 위험함을 알린다.Equation 3 is derived by Equation 1 and Equation 2, and when Equation 3 is satisfied, it indicates that the current coordinates of the character are in the safe area 111. Therefore, if Equation 3 is not satisfied, the first risk detector notifies the user of the danger.

제2 위험 감지부(242)는 캐릭터의 현재 위치와 자세 정보, 장애물 정보 및 장애물 완충영역(121,122,123)을 바탕으로 제2 위험 여부를 감지한다. 제2 위험 여부 감지는 제1,2,3 감지를 포함한다. The second danger detecting unit 242 detects whether the second danger is based on the current position and posture information of the character, obstacle information, and the obstacle buffer areas 121, 122, and 123. The second danger detection includes first, second, and third detection.

제1 완충영역 생성부(261)는 도 7에 도시된 바와 같이 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 장애물(120)의 수직방향으로 제1 장애물 완충영역(121)을 생성하며, 제2 위험 감지부(242)는 다음의 수학식 4에 의해 사용자에게 위험을 알리는 제1 감지를 한다. 이때, 제1 장애물 완충영역(121)은 도 7에 도시된 바와 같이 장애물(120)의 길이보다 좀 더 길게 생성된다. 또한, 도 7은 사용자가 장애물(120)의 북쪽에서 접근하는 것을 예시로 들었으나 마찬가지로 사용자가 장애물(120)의 남쪽에서 접근하는 것도 동일한 원리가 적용될 수 있을 것이다.The first buffer area generating unit 261 generates the first obstacle buffer area 121 in the vertical direction of the obstacle 120 based on the obstacle information and the current position and posture information of the character, as shown in FIG. 7, The second risk detection unit 242 performs a first detection informing the user of the risk by the following equation (4). At this time, the first obstacle buffer region 121 is generated longer than the length of the obstacle 120 as shown in FIG. 7. In addition, although FIG. 7 has been described as an example in which the user approaches from the north side of the obstacle 120, the same principle may be applied to the user approaching from the south side of the obstacle 120 as well.

[수학식 4][Equation 4]

Figure 112019120328202-pat00004
Figure 112019120328202-pat00004

수학식 4에 의해 제1 장애물 완충영역(121)이 정의되며, 수학식 4를 만족하는 경우 캐릭터의 현재 위치가 제1 장애물 완충영역(121) 안에 위치하는 것으로서 제2 위험 감지부(242)가 제1 감지를 통해 사용자에게 위험을 알린다.The first obstacle buffer area 121 is defined by Equation 4, and when the Equation 4 is satisfied, the second risk detection unit 242 is the current position of the character is located in the first obstacle buffer area 121. The user is informed of the danger through the first detection.

수학식 4와 이하에서 설명되는 수학식 5 및 수학식 6에서 xu와 yu는 각각 캐릭터의 현재 위치에 대한 x좌표와 y좌표를 나타내며, xdz0와 ydz0는 각각 장애물의 중심의 x좌표와 y좌표, wdz는 장애물의 가로 길이, ddz는 장애물의 세로 길이를 나타내며, hu는 사용자의 신장을 나타낸다.In Equation 4 and Equation 5 and Equation 6 described below, x u and y u represent the x and y coordinates of the character's current position, respectively, and x dz0 and y dz0 are the x coordinates of the center of the obstacle, respectively. And y coordinates, w dz represents the lateral length of the obstacle, d dz represents the vertical length of the obstacle, and h u represents the height of the user.

제2 완충영역 생성부(262)는 도 8에 도시된 바와 같이 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 장애물(120)의 수평방향으로 제2 장애물 완충영역(122)을 생성하며, 제2 위험 감지부(242)는 다음의 수학식 5에 의해 사용자에게 위험을 알리는 제2 감지를 한다. 이때, 제2 장애물 완충영역(122)은 도 8에 도시된 바와 같이 장애물(120)의 폭보다 좀 더 넓게 생성된다. 또한, 도 8은 사용자가 장애물(120)의 좌측에서 접근하는 것을 예시로 들었으나 마찬가지로 사용자가 장애물(120)의 우측에서 접근하는 것도 동일한 원리가 적용될 수 있을 것이다.The second buffer area generation unit 262 generates a second obstacle buffer area 122 in the horizontal direction of the obstacle 120 based on the obstacle information and the current position and posture information of the character, as shown in FIG. 8, The second risk detection unit 242 performs a second detection informing the user of the risk by the following equation (5). At this time, the second obstacle buffer area 122 is generated a little wider than the width of the obstacle 120 as shown in FIG. 8. In addition, although FIG. 8 has been illustrated as an example in which the user approaches from the left side of the obstacle 120, the same principle may be applied to the user approaching from the right side of the obstacle 120 as well.

[수학식 5][Equation 5]

Figure 112019120328202-pat00005
Figure 112019120328202-pat00005

수학식 5에 의해 제2 장애물 완충영역(122)이 정의되며, 수학식 5를 만족하는 경우 캐릭터의 현재 위치가 제2 장애물 완충영역(122) 안에 위치하는 것으로서 제2 위험 감지부(242)가 제2 감지를 통해 사용자에게 위험을 알린다. The second obstacle buffer area 122 is defined by Equation 5, and when the Equation 5 is satisfied, the second danger detection unit 242 is the character's current position as being located in the second obstacle buffer area 122. The user is informed of the danger through the second detection.

제3 완충영역 생성부(263)은 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 장애물(120)의 꼭짓점을 중심으로 제3 장애물 완충영역(123)을 생성하며, 제2 위험 감지부(242)는 다음의 수학식 6에 의해 사용자에게 위험을 알리는 제3 감지를 한다. 이때, 제3 장애물 완충영역(123)은 도 9에 도시된 바와 같이 장애물(120)의 꼭짓점에 모두 생성될 수 있고, 사용자가 4개의 장애물(120)의 꼭짓점 중 어디에 다가와도 모두 수학식 6을 통해 위험을 감지할 수 있다. 또한, 도 9는 사용자가 제3 장애물 완충영역(123a)에 접근하는 것을 예시로 들었으나 제3 장애물 완충영역(123b,123c,123d)에 접근하는 것도 마찬가지로 위험을 감지할 수 있다.The third buffer area generating unit 263 generates a third obstacle buffer area 123 around the vertex of the obstacle 120 based on the obstacle information and the current position and posture information of the character, and the second danger detection unit ( 242) performs a third detection informing the user of the danger by the following equation (6). At this time, the third obstacle buffer area 123 may be generated at all of the vertices of the obstacle 120, as shown in FIG. 9, and when the user approaches any of the vertices of the four obstacles 120, Equation 6 Through this, you can detect the danger. In addition, although FIG. 9 has been described as an example in which the user approaches the third obstacle buffer area 123a, the approach of the third obstacle buffer area 123b, 123c, and 123d can also sense the danger.

[수학식 6][Equation 6]

Figure 112019120328202-pat00006
Figure 112019120328202-pat00006

수학식 6에 의해 제3 장애물 완충영역(123)이 정의되며, 수학식 6을 만족하는 경우 캐릭터의 현재 위치가 제3 장애물 완충영역(123) 안에 위치하는 것으로서 제2 위험 감지부(242)가 제3 감지를 통해 사용자에게 위험을 알린다. The third obstacle buffer area 123 is defined by Equation 6, and when the equation 6 is satisfied, the current position of the character is located in the third obstacle buffer area 123, and the second risk detection unit 242 is The third detection is used to inform the user of the danger.

제3 위험 감지부(243)는 도 10에 도시된 바와 같이 장애물 정보와 캐릭터의 안전 유효영역을 바탕으로 제3 위험 여부를 감지한다. 도 10에서는 장애물(120)이 천장에 매달려 있는 것을 가정한 것이고, 사용자가 장애물(120) 밑을 통과하려는 예시를 든 것이다. 제3 위험 감지부(243)는 상술한 수학식 4,5,6을 통한 제1,2,3 감지 중 적어도 하나의 위험을 감지한 경우에 한정되어 제3 위험 여부를 감지한다. 제3 위험 감지부(243)는 다음의 수학식 7에 의해 제3 위험 여부를 감지한다.As illustrated in FIG. 10, the third danger detector 243 detects whether the third danger is based on obstacle information and a safe effective area of the character. In FIG. 10, it is assumed that the obstacle 120 is suspended from the ceiling, and an example in which the user intends to pass under the obstacle 120 is given. The third risk detector 243 is limited to detecting at least one of the first, second, and third risks through the above-described equations 4, 5, and 6 to detect the third risk. The third risk detector 243 detects whether the third risk is based on Equation 7 below.

[수학식 7][Equation 7]

Figure 112019120328202-pat00007
Figure 112019120328202-pat00007

zdz0는 장애물의 중심의 z축 좌표를 나타내며, hdz는 장애물의 높이를 나타내며, huc는 현재의 캐릭터 안전 유효영역의 높이를 의미한다. z dz0 represents the z-axis coordinate of the center of the obstacle, h dz represents the height of the obstacle, and h uc represents the height of the current character safety effective area.

수학식 4 내지 6 중 하나 이상을 만족하고 그리고 수학식 7을 만족하는 경우 캐릭터의 안전 유효영역(141)이 장애물 영역에 진입한 것으로서 제3 위험 감지부(243)가 사용자에게 위험을 알린다. If one or more of Equations 4 to 6 is satisfied and Equation 7 is satisfied, the third danger detection unit 243 notifies the user of the danger as the safety effective area 141 of the character has entered the obstacle area.

도 10을 참고하여 수학식 7을 설명하면, 캐릭터의 안전 유효영역(141)의 높이가 장애물(120)의 아래쪽 면보다 높으면 위험영역인 장애물 영역에 진입한 것으로 판단한다.When Equation 7 is described with reference to FIG. 10, if the height of the safe effective area 141 of the character is higher than the lower surface of the obstacle 120, it is determined that the obstacle area, which is a dangerous area, has been entered.

본 발명을 설명함에 있어 종래 기술 및 당업자에게 자명한 사항은 설명을 생략할 수도 있으며, 이러한 생략된 구성요소(방법) 및 기능의 설명은 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 충분히 참조될 수 있을 것이다. 또한, 상술한 본 발명의 구성요소는 본 발명의 설명의 편의를 위하여 설명하였을 뿐 여기에서 설명되지 아니한 구성요소가 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 추가될 수 있다. In the description of the present invention, descriptions that are obvious to those skilled in the art and those skilled in the art may be omitted, and descriptions of the omitted components (methods) and functions may be sufficiently referenced without departing from the technical spirit of the present invention. Will be able to. In addition, the above-described components of the present invention have been described for convenience of description of the present invention, and components not described herein may be added within a range not departing from the technical spirit of the present invention.

상술한 각부의 구성 및 기능에 대한 설명은 설명의 편의를 위하여 서로 분리하여 설명하였을 뿐 필요에 따라 어느 한 구성 및 기능이 다른 구성요소로 통합되어 구현되거나, 또는 더 세분화되어 구현될 수도 있다.Descriptions of the components and functions of the above-described parts have been described separately from each other for convenience of description, and if necessary, any one component and function may be integrated into other components, or may be implemented in a more detailed manner.

이상, 본 발명의 일실시예를 참조하여 설명했지만, 본 발명이 이것에 한정되지는 않으며, 다양한 변형 및 응용이 가능하다. 즉, 본 발명의 요지를 일탈하지 않는 범위에서 많은 변형이 가능한 것을 당업자는 용이하게 이해할 수 있을 것이다. 또한, 본 발명과 관련된 공지 기능 및 그 구성 또는 본 발명의 각 구성에 대한 결합관계에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.As described above, with reference to one embodiment of the present invention, the present invention is not limited to this, and various modifications and applications are possible. That is, those skilled in the art will readily understand that many modifications are possible without departing from the gist of the present invention. In addition, it should be noted that when it is determined that a detailed description of a known function related to the present invention and its configuration or a coupling relationship for each configuration of the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description is omitted. something to do.

110 : 가상현실 콘텐츠 체험공간
111 : 안전영역(활동영역)
112 : 완충영역(활동영역)
113 : 위험영역
120 : 장애물
121 : 제1 장애물 완충영역
122 : 제2 장애물 완충영역
123, 123a,123b,123c,123d : 제3 장애물 완충영역
131,132,133,134 : 벽
140 : 가상현실 컨텐츠 체험자 또는 사용자
141 : 캐릭터 안전 유효영역
200 : 서버부
210 : 영역 설정부
211 : 캐릭터의 활동영역 설정부
212 : 캐릭터의 위험영역 설정부
220 : 캐릭터의 안전 유효영역 설정부
221 : 폭 설정부
222 : 길이 설정부(또는 높이 설정부)
230 : 위치 및 자세 탐색부
240 : 위험 감지부
241 : 제1 위험 감지부
242 : 제2 위험 감지부
243 : 제3 위험 감지부
250 : 장애물 정보 획득부
260 : 장애물 완충영역 생성부
261 : 제1 완충영역 생성부
262 : 제2 완충영역 생성부
263 : 제3 완충영역 생성부
270 : 제어부
300 : 사용자 신체 측정부
400 : 사용자 단말부
410 : HMD부
420 : 컨트롤러부
110: virtual reality content experience space
111: safety area (activity area)
112: buffer area (active area)
113: danger zone
120: obstacle
121: first obstacle buffer area
122: second obstacle buffer area
123, 123a, 123b, 123c, 123d: 3rd obstacle buffer area
131,132,133,134: Wall
140: virtual reality content experience or user
141: Character safety effective area
200: server unit
210: area setting unit
211: Character's activity area setting unit
212: Character's danger zone setting unit
220: Character safety effective area setting unit
221: width setting unit
222: length setting unit (or height setting unit)
230: position and posture search unit
240: danger detection unit
241: first risk detection unit
242: second risk detection unit
243: third risk detection unit
250: Obstacle information acquisition unit
260: obstacle buffer area generation unit
261: first buffer region generation unit
262: second buffer area generation unit
263: 3rd buffer area generation unit
270: control unit
300: user body measurement unit
400: user terminal
410: HMD unit
420: controller unit

Claims (8)

영역 설정부가 가상현실 콘텐츠를 체험하는 체험공간 내에서 사용자의 움직임에 상응하게 동작하는 캐릭터의 활동영역과 위험영역을 설정하는 단계,
안전 유효영역 설정부는 사용자의 체형에 따른 정보를 입력받아 캐릭터의 안전 유효영역을 설정하는 단계,
위치 및 자세 탐색부는 상기 체험공간 내를 이동하는 캐릭터의 현재 위치 및 자세 정보를 탐색하는 단계, 및
위험 감지부는 설정된 캐릭터의 활동영역 및 위험영역, 캐릭터의 안전 유효영역, 캐릭터의 현재 위치와 자세 정보 및 장애물 정보를 바탕으로 위험 여부를 감지하여 알리는 단계를 포함하며,
상기 위치 및 자세 탐색부는,
사용자가 착용하는 헤드 마운티드 디스플레이와 사용자가 양손에 파지하는 컨트롤러부로부터 각각 3차원 좌표를 전송받아 상기 캐릭터의 현재 위치 및 자세 정보를 탐색하며,
상기 캐릭터의 안전 유효영역은,
상기 위치 및 자세 탐색부에서 제공된 캐릭터의 현재 자세 정보를 기초로 현재 상황에 맞게 변경되며,
위험 감지부의 제1 위험 감지부는,
상기 캐릭터의 활동영역 및 위험영역과 캐릭터의 안전 유효영역을 바탕으로 제1 위험 여부를 감지하며,
위험 감지부의 제2 위험 감지부는,
상기 캐릭터의 현재 위치와 자세 정보, 장애물 정보 및 장애물 완충영역을 바탕으로 제2 위험 여부를 감지하며,
위험 감지부의 제3 위험 감지부는,
상기 장애물 정보와 캐릭터의 안전 유효영역을 바탕으로 제3 위험 여부를 감지하며,
상기 제2 위험 여부 감지는,
제1 완충영역 생성부가 상기 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 상기 장애물의 수직방향으로 완충영역을 생성한 제1 장애물 완충영역을 기초로 한 제1 감지이며,
제2 완충영역 생성부가 상기 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 상기 장애물의 수평방향으로 완충영역을 생성한 제2 장애물 완충영역을 기초로 한 제2 감지이며,
제3 완충영역 생성부가 상기 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 상기 장애물의 꼭짓점을 중심으로 완충영역을 생성한 제3 장애물 완충영역을 기초로 한 제3 감지이며,
상기 제1 위험 감지부는,
다음의 수학식 1,2,3에 의해 캐릭터의 현재 좌표가 안전영역 내에 있음을 감지하는 것을 특징으로 하는 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법.
[수학식 1]
Figure 112020026021906-pat00025

수학식 1에 의해 캐릭터의 활동영역이 정의되며, xpg0와 ypg0는 캐릭터의 활동영역의 중심 좌표의 x성분과 y성분을 나타내며, wpg는 캐릭터의 활동영역의 x축 길이, hpg는 캐릭터의 활동 영역의 y축 길이를 하고, xpg, ypg는 2차원 좌표로서 캐릭터의 활동영역 내에 있는 임의의 좌표이다.
[수학식 2]
Figure 112020026021906-pat00026

수학식 2에 의해 캐릭터의 안전 유효영역이 정의되며, xuo와 yuo는 캐릭터의 안전 유효영역 내의 임의의 점의 x성분과 y성분을 나타내며, xu와 yu는 캐릭터의 현재 x좌표와 y좌표를 나타내며, hu는 사용자의 신장을 나타낸다
[수학식 3]
Figure 112020026021906-pat00027

수학식 3에 의해 캐릭터의 현재 좌표가 안전영역 내에 있음이 정의된다.
The step of setting the activity area and the danger area of the character that corresponds to the user's movement in the experience space where the area setting unit experiences the virtual reality content,
The safe effective area setting unit receives information according to the user's body type, and sets a safe effective area of the character.
The position and posture search unit searches the current position and posture information of the character moving in the experience space, and
The danger detection unit includes a step of detecting and notifying whether a danger is based on the set activity area and danger area of the character, the safety valid area of the character, the current position and posture information of the character, and obstacle information,
The position and posture search unit,
Searching the current position and posture information of the character by receiving 3D coordinates from the head mounted display worn by the user and the controller unit held by the user in both hands,
The safe effective area of the character,
It is changed according to the current situation based on the current posture information of the character provided by the position and posture search unit,
The first risk detection unit of the risk detection unit,
A first danger is detected based on the activity area and the danger area of the character and the safety effective area of the character,
The second risk detection unit of the risk detection unit,
Detecting a second danger based on the current position and posture information of the character, obstacle information, and an obstacle buffer area,
The third danger detection unit of the danger detection unit,
A third danger is detected based on the obstacle information and the safety effective area of the character,
The second danger detection,
The first buffer area generating unit is the first detection based on the first obstacle buffer area in which the buffer area is generated in the vertical direction of the obstacle based on the obstacle information and the current position and posture information of the character,
The second buffer area generating unit is the second detection based on the second obstacle buffer area in which the buffer area is generated in the horizontal direction of the obstacle based on the obstacle information and the current position and posture information of the character,
It is a third detection based on the third obstacle buffer area where the third buffer area generation unit creates a buffer area around the vertex of the obstacle based on the obstacle information and the current position and posture information of the character,
The first risk detection unit,
A method for detecting and preventing a user's risk in an experience space experiencing virtual reality content, characterized in that the character's current coordinates are within a safe area by the following equations (1, 2, 3).
[Equation 1]
Figure 112020026021906-pat00025

The character's active area is defined by Equation 1, where x pg0 and y pg0 denote the x- and y-components of the center coordinates of the character's active area, w pg is the length of the x-axis of the character's active area, and h pg is The y-axis length of the character's active area, x pg and y pg are two-dimensional coordinates, which are arbitrary coordinates within the character's active area.
[Equation 2]
Figure 112020026021906-pat00026

The safe effective area of the character is defined by Equation 2, where x uo and y uo represent the x and y components of any point in the character's safe effective area, and x u and y u are the current x coordinates of the character. y coordinate, h u represents the user's height
[Equation 3]
Figure 112020026021906-pat00027

It is defined by Equation 3 that the current coordinates of the character are in the safe area.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 제3 위험 감지부는,
상기 제1,2,3 감지 중 적어도 하나의 위험을 감지한 경우에 한정되어 상기 제3 위험 여부를 감지하는 것을 특징으로 하는 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법.
According to claim 1,
The third risk detection unit,
A method for detecting and preventing a user's risk in an experience space experiencing virtual reality content, which is limited to detecting at least one of the first, second, and third risks and detects whether the third risk exists .
삭제delete 영역 설정부가 가상현실 콘텐츠를 체험하는 체험공간 내에서 사용자의 움직임에 상응하게 동작하는 캐릭터의 활동영역과 위험영역을 설정하는 단계,
안전 유효영역 설정부는 사용자의 체형에 따른 정보를 입력받아 캐릭터의 안전 유효영역을 설정하는 단계,
위치 및 자세 탐색부는 상기 체험공간 내를 이동하는 캐릭터의 현재 위치 및 자세 정보를 탐색하는 단계, 및
위험 감지부는 설정된 캐릭터의 활동영역 및 위험영역, 캐릭터의 안전 유효영역, 캐릭터의 현재 위치와 자세 정보 및 장애물 정보를 바탕으로 위험 여부를 감지하여 알리는 단계를 포함하며,
상기 위치 및 자세 탐색부는,
사용자가 착용하는 헤드 마운티드 디스플레이와 사용자가 양손에 파지하는 컨트롤러부로부터 각각 3차원 좌표를 전송받아 상기 캐릭터의 현재 위치 및 자세 정보를 탐색하며,
상기 캐릭터의 안전 유효영역은,
상기 위치 및 자세 탐색부에서 제공된 캐릭터의 현재 자세 정보를 기초로 현재 상황에 맞게 변경되며,
위험 감지부의 제1 위험 감지부는,
상기 캐릭터의 활동영역 및 위험영역과 캐릭터의 안전 유효영역을 바탕으로 제1 위험 여부를 감지하며,
위험 감지부의 제2 위험 감지부는,
상기 캐릭터의 현재 위치와 자세 정보, 장애물 정보 및 장애물 완충영역을 바탕으로 제2 위험 여부를 감지하며,
위험 감지부의 제3 위험 감지부는,
상기 장애물 정보와 캐릭터의 안전 유효영역을 바탕으로 제3 위험 여부를 감지하며,
상기 제2 위험 여부 감지는,
제1 완충영역 생성부가 상기 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 상기 장애물의 수직방향으로 완충영역을 생성한 제1 장애물 완충영역을 기초로 한 제1 감지이며,
제2 완충영역 생성부가 상기 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 상기 장애물의 수평방향으로 완충영역을 생성한 제2 장애물 완충영역을 기초로 한 제2 감지이며,
제3 완충영역 생성부가 상기 장애물 정보 및 캐릭터의 현재 위치와 자세 정보를 바탕으로 상기 장애물의 꼭짓점을 중심으로 완충영역을 생성한 제3 장애물 완충영역을 기초로 한 제3 감지이며,
상기 제2 위험 감지부는,
다음의 수학식 4,5,6에 의해 상기 제1,2,3 감지를 하는 것을 특징으로 하는 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법.
[수학식 4]
Figure 112020026021906-pat00011

수학식 4에 의해 제1 장애물 완충영역이 정의되며, 수학식 4를 만족하는 경우 캐릭터의 현재 위치가 상기 제1 장애물 완충영역 안에 위치하여 상기 제2 위험 감지부가 상기 제1 감지를 하며,
[수학식 5]
Figure 112020026021906-pat00012

수학식 5에 의해 제2 장애물 완충영역이 정의되며, 수학식 5를 만족하는 경우 캐릭터의 현재 위치가 상기 제2 장애물 완충영역 안에 위치하여 상기 제2 위험 감지부가 상기 제2 감지를 하며,
[수학식 6]
Figure 112020026021906-pat00013

수학식 6에 의해 제3 장애물 완충영역이 정의되며, 수학식 6을 만족하는 경우 캐릭터의 현재 위치가 상기 제3 장애물 완충영역 안에 위치하여 상기 제2 위험 감지부가 상기 제3 감지를 하며,
수학식 4,5,6에서 xu와 yu는 각각 캐릭터의 현재 위치에 대한 x좌표와 y좌표를 나타내며, xdz0와 ydz0는 각각 장애물의 중심의 x좌표와 y좌표, wdz는 장애물의 가로 길이, ddz는 장애물의 세로 길이를 나타내며, hu는 사용자의 신장을 나타낸다.
The step of setting the activity area and the danger area of the character that corresponds to the user's movement in the experience space where the area setting unit experiences the virtual reality content,
The safe effective area setting unit receives information according to the user's body type, and sets a safe effective area of the character.
The position and posture search unit searches the current position and posture information of the character moving in the experience space, and
The danger detection unit includes a step of detecting and notifying whether a danger is based on the set activity area and danger area of the character, the safety valid area of the character, the current position and posture information of the character, and obstacle information,
The position and posture search unit,
Searching the current position and posture information of the character by receiving 3D coordinates from the head mounted display worn by the user and the controller unit held by the user in both hands,
The safe effective area of the character,
It is changed according to the current situation based on the current posture information of the character provided by the position and posture search unit,
The first risk detection unit of the risk detection unit,
A first danger is detected based on the activity area and the danger area of the character and the safety effective area of the character,
The second risk detection unit of the risk detection unit,
Detecting a second danger based on the current position and posture information of the character, obstacle information, and an obstacle buffer area,
The third danger detection unit of the danger detection unit,
A third danger is detected based on the obstacle information and the safety effective area of the character,
The second danger detection,
The first buffer area generating unit is the first detection based on the first obstacle buffer area in which the buffer area is generated in the vertical direction of the obstacle based on the obstacle information and the current position and posture information of the character,
The second buffer area generating unit is the second detection based on the second obstacle buffer area in which the buffer area is generated in the horizontal direction of the obstacle based on the obstacle information and the current position and posture information of the character,
It is a third detection based on the third obstacle buffer area where the third buffer area generation unit creates a buffer area around the vertex of the obstacle based on the obstacle information and the current position and posture information of the character,
The second risk detection unit,
A method for detecting and preventing a user's risk in an experience space for experiencing virtual reality content, characterized in that the first, second, and third detection is performed by the following equations 4, 5, and 6.
[Equation 4]
Figure 112020026021906-pat00011

The first obstacle buffer area is defined by Equation 4, and when the equation 4 is satisfied, the current position of the character is located in the first obstacle buffer area, so that the second danger detection unit performs the first detection,
[Equation 5]
Figure 112020026021906-pat00012

The second obstacle buffer area is defined by Equation 5, and when the equation (5) is satisfied, the current position of the character is located in the second obstacle buffer area, and the second danger detection unit performs the second detection,
[Equation 6]
Figure 112020026021906-pat00013

A third obstacle buffer area is defined by Equation (6), and when the equation (6) is satisfied, the current position of the character is located in the third obstacle buffer area, so that the second danger detection unit performs the third detection,
In equations 4,5,6, x u and y u represent the x and y coordinates of the character's current position, respectively, x dz0 and y dz0 are the center x and y coordinates of the obstacle, respectively, and w dz is the obstacle. The horizontal length of, d dz represents the vertical length of the obstacle, and h u represents the height of the user.
제 5 항에 있어서,
상기 제3 위험 감지부는,
다음의 수학식 7에 의해 상기 제3 위험 여부를 감지하는 것을 특징으로 하는 가상현실 콘텐츠를 체험하는 체험공간 내에서의 사용자의 위험 감지 및 방지 방법.
[수학식 7]
Figure 112019120328202-pat00014

zdz0는 장애물의 중심의 z축 좌표를 나타내며, hdz는 장애물의 높이를 나타내며, huc는 현재의 캐릭터 안전 유효영역의 높이를 의미한다.
The method of claim 5,
The third risk detection unit,
A method for detecting and preventing a user's risk in an experience space experiencing virtual reality content, characterized in that the third risk is detected by the following equation (7).
[Equation 7]
Figure 112019120328202-pat00014

z dz0 represents the z-axis coordinate of the center of the obstacle, h dz represents the height of the obstacle, and h uc represents the height of the current character safety effective area.
KR1020190151154A 2019-11-22 2019-11-22 Collision prevention method for user of virtual reality system KR102124748B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190151154A KR102124748B1 (en) 2019-11-22 2019-11-22 Collision prevention method for user of virtual reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190151154A KR102124748B1 (en) 2019-11-22 2019-11-22 Collision prevention method for user of virtual reality system

Publications (1)

Publication Number Publication Date
KR102124748B1 true KR102124748B1 (en) 2020-06-19

Family

ID=71137483

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190151154A KR102124748B1 (en) 2019-11-22 2019-11-22 Collision prevention method for user of virtual reality system

Country Status (1)

Country Link
KR (1) KR102124748B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112099638A (en) * 2020-10-19 2020-12-18 深圳市瑞立视多媒体科技有限公司 Information processing method and device in virtual reality scene and computer equipment
WO2022075545A1 (en) * 2020-10-07 2022-04-14 주식회사 헬스맥스 Method for testing coordination and agility using vr
WO2023277586A1 (en) * 2021-06-30 2023-01-05 옥재윤 Motion tracking system using deep learning technology

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598900B1 (en) * 2014-09-02 2016-03-03 인하대학교 산학협력단 Apparatus For Generating Safe Path Using Modified A* algorithm
KR101659782B1 (en) 2016-03-25 2016-09-27 (주)이지스 Method for providing of 3D indoor space information in user view point considering wall-collision
KR101696102B1 (en) * 2015-11-04 2017-01-13 계명대학교 산학협력단 System for providing virtual reality and method thereof
US20180190027A1 (en) * 2016-12-31 2018-07-05 Intel Corporation Collision prevention for virtual reality systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598900B1 (en) * 2014-09-02 2016-03-03 인하대학교 산학협력단 Apparatus For Generating Safe Path Using Modified A* algorithm
KR101696102B1 (en) * 2015-11-04 2017-01-13 계명대학교 산학협력단 System for providing virtual reality and method thereof
KR101659782B1 (en) 2016-03-25 2016-09-27 (주)이지스 Method for providing of 3D indoor space information in user view point considering wall-collision
US20180190027A1 (en) * 2016-12-31 2018-07-05 Intel Corporation Collision prevention for virtual reality systems

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075545A1 (en) * 2020-10-07 2022-04-14 주식회사 헬스맥스 Method for testing coordination and agility using vr
CN112099638A (en) * 2020-10-19 2020-12-18 深圳市瑞立视多媒体科技有限公司 Information processing method and device in virtual reality scene and computer equipment
CN112099638B (en) * 2020-10-19 2024-02-06 瑞立视多媒体科技(北京)有限公司 Information processing method and device in virtual reality scene and computer equipment
WO2023277586A1 (en) * 2021-06-30 2023-01-05 옥재윤 Motion tracking system using deep learning technology

Similar Documents

Publication Publication Date Title
KR102124748B1 (en) Collision prevention method for user of virtual reality system
JP5691568B2 (en) Information processing apparatus, notification method, and program
AU2018271237B2 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
US10803663B2 (en) Depth sensor aided estimation of virtual reality environment boundaries
KR102170928B1 (en) Robot obstacle avoidance control system, method, robot and storage medium
US20190007659A1 (en) Sensor for securing a machine
EP3164769B1 (en) Machine safety dome
JP2012155655A (en) Information processing device, notification method, and program
JP7259284B2 (en) Teaching device, teaching method
JP6332652B1 (en) Display control apparatus and program
KR101598900B1 (en) Apparatus For Generating Safe Path Using Modified A* algorithm
JP2019198907A (en) Robot system
CN107544669B (en) Pseudo-force device
CN112018657B (en) Live working safety protection system and method for power transmission line
KR20180002588A (en) Fan-driven force device
JP6368503B2 (en) Obstacle monitoring system and program
JP5900368B2 (en) Moving body
Kakillioglu et al. Autonomous altitude measurement and landing area detection for indoor uav applications
JP6488946B2 (en) Control method, program, and control apparatus
Zhang et al. Binocular vision sensor (Kinect)-based pedestrian following mobile robot
CN114074320B (en) Robot control method and device
EP4318407A1 (en) Information processing device, information processing method, and program
WO2022255206A1 (en) Information processing apparatus, information processing method, and computer program
WO2021193638A1 (en) Guide display device and crane provided with same
CN117897665A (en) Mobile device, mobile device control method, and program

Legal Events

Date Code Title Description
GRNT Written decision to grant