WO2011099731A2 - 데이터타입 분류에 따른 캐릭터정보 동기화 방법 - Google Patents

데이터타입 분류에 따른 캐릭터정보 동기화 방법 Download PDF

Info

Publication number
WO2011099731A2
WO2011099731A2 PCT/KR2011/000791 KR2011000791W WO2011099731A2 WO 2011099731 A2 WO2011099731 A2 WO 2011099731A2 KR 2011000791 W KR2011000791 W KR 2011000791W WO 2011099731 A2 WO2011099731 A2 WO 2011099731A2
Authority
WO
WIPO (PCT)
Prior art keywords
character
data
character information
user
type classification
Prior art date
Application number
PCT/KR2011/000791
Other languages
English (en)
French (fr)
Other versions
WO2011099731A3 (ko
Inventor
강병수
Original Assignee
주식회사 블루사이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 블루사이드 filed Critical 주식회사 블루사이드
Priority to JP2012552797A priority Critical patent/JP2013519427A/ja
Priority to EP11742423.4A priority patent/EP2535860A4/en
Priority to US13/578,606 priority patent/US20120309544A1/en
Publication of WO2011099731A2 publication Critical patent/WO2011099731A2/ko
Publication of WO2011099731A3 publication Critical patent/WO2011099731A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/326Game play aspects of gaming systems
    • G07F17/3272Games involving multiple players
    • G07F17/3281Games involving multiple players wherein game attributes are transferred between players, e.g. points, weapons, avatars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/358Adapting the game course according to the network or server load, e.g. for reducing latency due to different connection speeds between clients
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3225Data transfer within a gaming system, e.g. data sent between gaming machines and users
    • G07F17/3227Configuring a gaming machine, e.g. downloading personal settings, selecting working parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/534Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction

Definitions

  • the present invention relates to a method for synchronizing character information in an online game, and more particularly, to a character information synchronization method for providing a more advanced synchronization process by classifying character information according to data types.
  • the method of synchronizing the character information used in the prior art continuously transmits the character information to other users irrespective of the character's control, so that if there are a large number of characters on the screen, the amount of data is excessively increased. there was.
  • An object of the present invention is to provide a method for synchronizing character information according to a data type classification, which is provided by classifying character information into position data and motion data.
  • the character information provides a method of synchronizing character information according to a data type classification generated only when a character's position is changed or a specific operation is performed.
  • the position data is generated at predetermined time intervals, and provides a character information synchronization method according to the data type classification indicating a process of changing the position of the character compared to the position data generated immediately before and the recently generated position data. .
  • Character information synchronization method for solving the above process, in the character information synchronization method performed by the online game system, the position is generated in accordance with the position change of the character used by the first user
  • the transmitting step when the position of the character is changed from the stationary state by more than a predetermined distance, the position data, which is first generated, is immediately transmitted to the second user, and the position of the character is continuously changed in the position change state. If the distance is changed by more than one distance, the position data generated after a predetermined time elapses from the position data generated and transmitted immediately before is transmitted to the second user.
  • the processing step when the character is in a stationary state, the position of the character is changed based on the first received position data, and when the character is in the position change state, the position data received immediately before and immediately before A position change distance is calculated from the received position data in comparison with the latest position data received after the predetermined time elapses to change the position of the character.
  • a different action number is assigned to each action of the character included in the action data, so that the action data can be transmitted and received in the form of the action number.
  • the transmitting step immediately transmits the motion data to the second user, and the processing step immediately changes the behavior of the character corresponding to the received motion data. do.
  • the motion data includes stop motion data that can be performed only when the character is in a stop state and movement motion data that can be performed even when the character is in a position change state.
  • the motion data includes stop motion data that can be performed only when the character is in a stop state and movement motion data that can be performed even when the character is in a position change state.
  • stop motion data When the stop motion data is received within time, the character's behavior is changed after changing the position of the character in accordance with the contrast of the position data received immediately before and the latest position data.
  • Character information synchronization method for solving the above problems has the following effects.
  • the character information is generated only when the position of the character is changed or when an operation is performed, the character information that is wasted can be reduced and the load of the entire system can be reduced.
  • the position data is generated at predetermined time intervals, so that the position animation generated immediately before and the recently generated position data are compared, and the character animation frames are arranged according to the calculated ratio to obtain a natural and beautiful character movement. There is an advantage that it can.
  • FIG. 1 is a flowchart showing a series of synchronization processes of the character information synchronization method according to the data type classification of the present invention
  • FIG. 2 is a view showing a state of a character in which position data of a character information synchronization method according to a data type of the present invention is generated;
  • FIG. 3 is a view showing a character position changing process of the character information synchronization method according to the data type classification of the present invention
  • FIG. 4 is a diagram illustrating a processing process when stop motion data is received during character position change in the character information synchronization method according to the data type classification of the present invention.
  • FIG. 5 is a flowchart showing the overall progress of the character information synchronization method according to the data type classification of the present invention.
  • the present invention is a synchronization method for transmitting the character information to other users when the position of the character assigned to be controlled by the user in the online game or the behavior is changed so that each user obtains a matched screen.
  • the character information of the present invention includes position data generated according to the change of the position of the character or motion data generated according to various behavior changes of the character. That is, the position data is generated in a situation in which the character is moved by the user's intention or the position is moved manually by another object, and the motion data is generated when the character takes a specific action.
  • the character information is classified into position data and motion data, thereby reducing the capacity of the character information and generating data only at the moment when the movement and action of the character is actually performed, thereby effectively reducing the load of the entire system. have.
  • FIG. 1 is a flowchart illustrating a series of synchronization processes of the character information synchronization method according to the data type classification of the present invention.
  • FIG. 1 illustrates each step of the present invention, which will be described in detail with reference to the character information synchronization process between the first user and the second user.
  • character information may be generated when the first user moves his character or controls the user to take a specific action, and the character of the first user is implemented on another user's character or game. It can be created even if the position and behavior are changed by the object.
  • the character information is one of position data or motion data, which is immediately transmitted to the second user.
  • the process is a transmission step (S1) of transmitting the position data and motion data of the character used by the first user to the second user.
  • the transmitted character information is received by the second user, and this process is a receiving step (S2) in which the second user receives the character information.
  • the character information of the first user character received as described above undergoes a process of determining whether it is position data or motion data to process this, and this step is a determination step (S3) of determining the data type of the character information.
  • This step is a processing step S4 for processing character information according to the determined data type.
  • FIG. 2 is a view showing a state of a character in which the position data of the character information synchronization method according to the data type of the present invention is generated
  • FIG. 3 shows a character position changing process of the character information synchronization method according to the data type classification of the present invention.
  • the character information generated at this time is position data.
  • the location data may hold information about coordinates, directions, and time.
  • the position data is not generated at the moment when the character C is stopped, and the initial position data P is generated when it is recognized that the position of the character is changed by a predetermined distance or more from the stopped state.
  • the predetermined distance is a predetermined value, and the generated initial position data P is immediately transmitted to the second user.
  • the position data is generated at predetermined time intervals after the initial position data P is generated. That is, if it is recognized that the position of the character C is changed more than the predetermined distance even after the position data is generated, the position data is generated after the predetermined time.
  • the initial position data P is generated at the moment when the character C moves 0.1m from the stop state. This initial position data P is immediately transmitted to the second user.
  • the position data is generated every 0.2 seconds. In other words, if the character C is continuously moving, position data is continuously generated every 0.2 seconds and transmitted to the second user.
  • the second user receives the position data transmitted as described above, and when the initial position data P is received by the processing step (S4), the position of the character (C) is changed according to the corresponding information. Further, when the character C continues to move thereafter, the position of the character C is changed according to the position change distance calculated by comparing the position data received immediately before and the latest received position data with each other. .
  • each frame representing the animation of the character C may be arranged in a predetermined ratio within the predetermined time in order to process the movement naturally and beautifully. Can be.
  • frame rate represents the number of pictures displayed in one second
  • fps Fre per Seconds
  • the predetermined time is 0.2 seconds
  • the character C has moved by 4 m within the predetermined time
  • the predetermined time is 0.2 seconds. Therefore, the motion of moving the character C of 4 frames is assigned within the predetermined time.
  • each frame may be arranged every 1m. Therefore, the character (C) can be expressed as naturally as possible to move 4m in 0.2 seconds.
  • FIG. 4 is a diagram illustrating a processing process when the stop motion data is received during the character position change in the character information synchronization method according to the data type classification of the present invention. With reference to this, the operation data will be described.
  • the generated character information is motion data.
  • the action that the character C can perform other than changing the position is very diverse, and the character information for this is called motion data.
  • the motion data may include stop motion data that can be performed only when the character C is in a stopped state and move motion data that can be performed even when the character C is in a changed position.
  • the movement of the character C to wield the weapon can be performed without stopping the movement of the character C during the movement, this may be classified as movement movement data. If the character C cannot sit on the ground or gather energy in place, such as movement, the character C can be classified as stop motion data.
  • the motion data is transmitted to the second user as soon as the behavior of the character C is changed by the transmitting step S1 and character information is generated, and the character information received by the second user is processed by the processing step S4. Apply immediately.
  • the operation is immediately displayed on the screen of the second user. That is, both the movement motion data and the stop motion data are transmitted to the second user as soon as the character information is generated by the action of the character C.
  • the stop motion data is processed after processing the position data.
  • the stop motion data is received within the predetermined time which is the interval at which the position data is generated, and the stop motion data is processed after the position data after the stop motion data reception is processed.
  • the stop motion data is performed while the position of the character C is changed
  • the stop motion is processed after the position change of the character C is processed by comparing the position data before and after the stop motion data with each other.
  • FIG. 5 is a flowchart showing the overall progress of the character information synchronization method according to the data type classification of the present invention.
  • character information is generated according to the movement or movement of the character of the first user. Thereafter, the character information is transmitted to the second user, and the second user receives it. Up to this process is a transmission step S1 and a reception step S2.
  • the process of determining the character information proceeds, and determines whether the character information is position data or motion data.
  • the process of determining whether the position data is the position data generated for the first time in the on-time state is repeated.
  • this process is the determination step (S3).
  • processing of each character information is continued. If the determined character information is the initial position data, the position of the character is changed immediately. If the character information is not the initial position data, the character is applied by applying the position change distance calculated from the position data generated immediately before and the present position data. Change the position of.
  • the character information is the movement motion data
  • the character's behavior is changed immediately.
  • the processing time varies depending on whether the character is in position change.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Pinball Game Machines (AREA)

Abstract

본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법은, 온라인 게임 시스템에 의해 수행되는 캐릭터정보 동기화 방법에 있어서, 제1사용자가 사용하는 캐릭터의 위치 변경에 따라 생성되는 위치데이터 또는 상기 캐릭터의 다양한 행동 변경에 따라 생성되는 동작데이터를 포함하는 캐릭터정보를 제2사용자에게 송신하는 송신단계, 상기 캐릭터정보를 제2사용자가 수신하는 수신단계, 상기 캐릭터정보의 데이터타입을 판단하는 판단단계 및 판단된 데이터타입에 따라 상기 캐릭터정보를 처리하는 처리단계를 포함한다.

Description

데이터타입 분류에 따른 캐릭터정보 동기화 방법
본 발명은 온라인 게임에서의 캐릭터정보를 동기화하는 방법에 관한 것으로서, 보다 구체적으로는 캐릭터정보를 데이터타입에 따라 분류하여 보다 발전된 동기화 과정을 제공하는 캐릭터정보 동기화 방법에 관한 것이다.
최근 온라인 게임 시장이 확대되고 있으며, 이용자들도 꾸준히 증가되는 추세를 보이고 있다. 또한, 갈수록 게임의 품질이 상승하고, 그 스케일도 점점 방대해지는 경향을 보인다. 따라서 게임 상에 구현되는 오브젝트의 수 역시 점점 증가하며, 이들을 효율적으로 처리하는 방법의 개발이 이루어지고 있다.
특히, 온라인 게임에 있어서, 다수의 사용자는 자신에게 할당된 개인 캐릭터를 보유하게 되며, 각 사용자는 상기 캐릭터를 자신의 의지대로 조종할 수 있다. 이때, 한 사용자가 자신이 조종하는 캐릭터의 위치 또는 행동과 같은 캐릭터 정보를 변경하였을 경우에, 타 사용자들의 화면에도 이와 같은 변경 사항이 동기화되어 적용되어야 한다.
하지만, 종래에 사용되던 캐릭터 정보를 동기화하는 방법은, 캐릭터의 조종과 관계 없이 지속적으로 캐릭터 정보를 타 사용자에게 송신하기 때문에, 화면에 다수의 캐릭터가 존재할 경우 그 데이터양이 과도하게 증가한다는 문제가 있었다.
또한, 캐릭터의 위치 또는 행동이 변경되지 않아도 캐릭터 정보를 타 사용자에게 송신하기 때문에, 유효데이터 외에 낭비되는 정보가 많다는 문제가 있었다.
본 발명의 목적은 상기한 종래의 문제점을 해결하기 위한 것으로서, 캐릭터정보를 위치데이터 및 동작데이터로 분류하여 제공하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법을 제공함에 있다.
그리고, 상기 캐릭터정보는, 캐릭터의 위치가 변경되거나 특정 동작이 행해질 경우에만 생성되는 데이터타입 분류에 따른 캐릭터정보 동기화 방법을 제공함에 있다.
또한, 상기 위치데이터는, 소정시간 간격으로 생성되어, 직전에 생성된 위치데이터와 최근에 생성된 위치데이터를 대비하여 캐릭터의 위치 변경 과정을 나타내는 데이터타입 분류에 따른 캐릭터정보 동기화 방법을 제공함에 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기한 과정을 해결하기 위한 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법은, 온라인 게임 시스템에 의해 수행되는 캐릭터정보 동기화 방법에 있어서, 제1사용자가 사용하는 캐릭터의 위치 변경에 따라 생성되는 위치데이터 또는 상기 캐릭터의 다양한 행동 변경에 따라 생성되는 동작데이터를 포함하는 캐릭터정보를 제2사용자에게 송신하는 송신단계, 상기 캐릭터정보를 제2사용자가 수신하는 수신단계, 상기 캐릭터정보의 데이터타입을 판단하는 판단단계 및 판단된 데이터타입에 따라 상기 캐릭터정보를 처리하는 처리단계를 포함한다.
그리고, 상기 송신단계는, 상기 캐릭터가 정지 상태에서 위치가 일정거리 이상 변경된 경우에는, 최초로 생성된 위치데이터를 상기 제2사용자에게 즉시 송신하고, 상기 캐릭터가 위치 변경 상태에서 연속하여 위치가 상기 일정거리 이상 변경된 경우에는, 직전에 생성되어 송신된 위치데이터로부터 소정시간 경과 후 생성된 위치데이터를 상기 제2사용자에게 송신한다.
또한, 상기 처리단계는, 상기 캐릭터가 정지 상태일 경우에는, 최초로 수신된 위치데이터에 기반하여 캐릭터의 위치를 변경하며, 상기 캐릭터가 위치 변경 상태일 경우에는, 직전에 수신된 위치데이터 및 직전에 수신된 위치데이터로부터 상기 소정시간 경과 후 수신된 최신 위치데이터와 대비하여 위치 변경거리를 산출하여 캐릭터의 위치를 변경한다.
그리고, 상기 산출된 위치 변경거리를 상기 캐릭터를 표현하는 애니메이션의 초당 프레임 수에 상기 소정시간을 곱하여 나온 소정시간당 프레임 수로 나누어 계산된 프레임당 위치 변경거리에 따라 상기 캐릭터의 위치를 변경하는 과정을 표현한다.
또한, 상기 동작데이터에 포함되는 상기 캐릭터의 행동 각각에는 서로 다른 동작번호가 부여되어, 상기 동작데이터를 상기 동작번호 형태로 송신 및 수신 가능하다.
그리고, 상기 송신단계는, 상기 캐릭터의 행동이 변경될 경우에는, 상기 동작데이터를 상기 제2사용자에게 즉시 송신하며, 상기 처리단계는, 수신된 상기 동작데이터에 해당하는 상기 캐릭터의 행동을 즉시 변경한다.
또한, 상기 동작데이터는, 상기 캐릭터가 정지 상태일 경우에만 수행할 수 있는 정지동작데이터 및 상기 캐릭터가 위치 변경 상태일 경우에도 수행할 수 있는 이동동작데이터를 포함한다.
그리고, 상기 동작데이터는, 상기 캐릭터가 정지 상태일 경우에만 수행할 수 있는 정지동작데이터 및 상기 캐릭터가 위치 변경 상태일 경우에도 수행할 수 있는 이동동작데이터를 포함하며, 상기 처리단계는, 상기 소정시간 내에 상기 정지동작데이터가 수신될 경우에는, 직전에 수신된 위치데이터 및 상기 최신 위치데이터의 대비에 따라 캐릭터의 위치를 변경한 후에 상기 캐릭터의 행동을 변경한다.
상기한 과제를 해결하기 위한 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법은 다음과 같은 효과가 있다.
첫째, 캐릭터정보는 위치데이터 및 동작데이터로 세분화되므로, 개별 정보의 용량을 줄일 수 있다는 장점이 있다.
둘째, 상기 캐릭터정보는 캐릭터의 위치가 변경될 경우 또는 동작이 수행될 경우에만 생성되므로, 낭비되는 캐릭터정보를 줄일 수 있으며, 시스템 전체의 부하를 감소시킬 수 있다는 장점이 있다.
셋째, 시스템 전체의 부하의 감소에 따라, 한번에 더 많은 캐릭터정보를 처리할 수 있으며, 따라서 대량의 캐릭터를 동시에 구현할 수 있다는 장점이 있다.
넷째, 상기 위치데이터는, 소정시간 간격으로 생성되어, 직전에 생성된 위치데이터와 최근에 생성된 위치데이터를 대비하고, 계산된 비율에 맞추어 캐릭터 애니메이션 프레임을 배열하므로 자연스럽고 미려한 캐릭터의 움직임을 얻을 수 있다는 장점이 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도1은 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 일련의 동기화 과정을 나타내는 흐름도;
도2는 본 발명의 데이터타입에 따른 캐릭터정보 동기화 방법의 위치데이터가 생성되는 캐릭터의 상태를 나타낸 도면;
도3은 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 캐릭터 위치 변경 과정을 나타내는 도면;
도4는 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 캐릭터 위치 변경 중 정지동작데이터가 수신될 경우의 처리 과정을 나타내는 도면; 및
도5는 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 전체적인 진행 과정을 나타내는 순서도이다.
이하 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다.
본 발명은 온라인 게임에서 사용자가 조종하도록 할당된 캐릭터의 위치가 변경되거나, 행동이 변경된 경우 이 캐릭터정보를 타 사용자에게 송신하여 각 사용자가 일치된 화면을 얻도록 하기 위한 동기화 방법이다.
그리고, 본 발명의 캐릭터정보는 캐릭터의 위치 변경에 따라 생성되는 위치데이터 또는 상기 캐릭터의 다양한 행동 변경에 따라 생성되는 동작데이터를 포함한다. 즉, 캐릭터가 사용자의 의도에 의해 이동되거나 타 오브젝트에 의해 수동적으로 위치가 이동되는 등의 상황에서는 상기 위치데이터가 생성되며, 캐릭터가 특정한 행동을 취할 경우에는 상기 동작데이터가 생성되는 것이다.
이와 같이 상기 캐릭터정보를 위치데이터 및 동작데이터로 분류함에 따라 상기 캐릭터정보의 용량을 줄일 수 있으며, 또한 캐릭터의 이동 및 행동이 실제로 이루어지는 순간에만 데이터를 생성하므로 효율적으로 전체 시스템의 부하를 감소시킬 수 있다.
상기 위치데이터 및 상기 동작데이터의 자세한 사항에 관해서는 후술한다.
도1은 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 일련의 동기화 과정을 나타내는 흐름도이다.
도1에는 본 발명이 수행되는 각 단계가 도시되며, 이를 참조하여 제1사용자 및 제2사용자 간의 캐릭터정보 동기화 과정을 자세히 설명한다.
먼저, 캐릭터정보는 상기 제1사용자가 자신의 캐릭터를 이동시키거나, 특정한 행동을 취하도록 조종할 경우에 생성될 수 있으며, 상기 제1사용자의 캐릭터가 타 사용자의 캐릭터 또는 게임 상에 구현된 기타 오브젝트에 의해 위치 및 행동이 변경된 경우에도 생성될 수 있다.
이때 상기 캐릭터정보는 위치데이터 또는 동작데이터 중 어느 한 형태이며, 이는 생성 즉시 제2사용자에게 송신된다.
상기 과정이 제1사용자가 사용하는 캐릭터의 위치데이터 및 동작데이터를 제2사용자에게 송신하는 송신단계(S1)이다.
그리고, 송신된 상기 캐릭터정보는 제2사용자가 수신하게 되며, 이 과정이 캐릭터정보를 제2사용자가 수신하는 수신단계(S2)이다.
이와 같이 수신된 제1사용자 캐릭터의 캐릭터정보는, 이를 처리하기 위해 위치데이터인지 동작데이터인지 판단되는 과정을 거치며, 이 단계가 캐릭터정보의 데이터타입을 판단하는 판단단계(S3)이다.
이후 상기 캐릭터정보가 위치데이터일 경우에는 위치데이터 처리 과정을 거치게 되며, 동작데이터일 경우에는 동작데이터 처리 과정을 거치게 된다. 이 단계가 판단된 데이터타입에 따라 캐릭터정보를 처리하는 처리단계(S4)이다.
상기 모든 단계를 거쳐 제1사용자의 캐릭터에 일어난 변경 사항이 적용되어 제2사용자의 화면에 디스플레이되며, 따라서 제1사용자 및 제2사용자의 화면에 각각 디스플레이되는 제1사용자의 캐릭터의 상태가 서로 일치되는 것이다.
이하에서는, 구체적으로 상기 위치데이터 및 상기 동작데이터의 송신 및 처리에 대해 자세히 설명한다.
도2는 본 발명의 데이터타입에 따른 캐릭터정보 동기화 방법의 위치데이터가 생성되는 캐릭터의 상태를 나타낸 도면이며, 도3은 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 캐릭터 위치 변경 과정을 나타내는 도면이다.
도2를 참조하면, 제1사용자가 조종하는 캐릭터(C)가 특정 위치를 향해 이동하는 모습이 도시되어 있으며, 따라서 이때 생성되는 캐릭터정보는 위치데이터이다. 그리고, 일반적으로 위치데이터는 좌표, 방향 및 시간에 대한 정보를 보유할 수 있다.
구체적으로, 캐릭터(C)가 정지하여 있는 순간에는 위치데이터가 생성되지 않으며, 캐릭터의 위치가 정지 상태에서 일정거리 이상 변경된 것으로 인식되면 최초위치데이터(P)가 생성된다. 여기서 상기 일정거리는, 미리 정해 입력된 값이며, 생성된 최초위치데이터(P)는 즉시 제2사용자에게 송신된다.
그리고, 캐릭터(C)가 계속하여 위치 변경 중이라면, 최초위치데이터(P)가 생성된 이후부터는, 소정시간 간격으로 위치데이터를 생성한다. 즉, 위치데이터가 생성된 이후에도 캐릭터(C)의 위치가 상기 일정거리 이상 변경되는 것으로 인식되면, 상기 소정시간 후에 위치데이터를 생성하는 것이다.
도3을 참조하여 예를 들어 설명하면, 상기 일정거리가 0.1m이고, 상기 소정시간이 0.2초일 때, 캐릭터(C)가 정지 상태에서 0.1m이동하는 순간 최초위치데이터(P)가 생성되며, 이 최초위치데이터(P)는 즉시 제2사용자에게 송신된다.
그리고, 이후에도 캐릭터(C)가 계속하여 이동하는 것으로 인식될 경우, 0.2초마다 위치데이터를 생성한다. 즉, 캐릭터(C)가 연속하여 이동하고 있다면, 0.2초마다 계속하여 위치데이터가 생성되어 제2사용자에게 송신되는 것이다.
한편, 제2사용자는 상기와 같이 송신된 위치데이터를 수신하게 되며, 처리단계(S4)에 의해, 최초위치데이터(P)가 수신된 경우 해당 정보에 따라 캐릭터(C)의 위치가 변경된다. 또한, 이후에도 캐릭터(C)가 계속하여 이동할 경우에는, 바로 직전에 수신된 위치데이터 및 최신 수신된 위치데이터가 서로 대비되어 산출된 위치 변경거리에 따라 캐릭터(C)의 위치가 변경되는 과정을 거친다.
이때, 상기 소정시간마다 캐릭터(C)의 이동을 처리할 경우에, 움직임을 자연스럽고 미려하게 처리하기 위해 캐릭터(C)의 애니메이션을 나타내는 각 프레임(Frame)을 상기 소정시간 내에 일정 비율로 배열할 수 있다.
여기서, 초당 프레임레이트(Framerate)란, 1초에 표시되는 그림의 수를 나타내는 것으로, 상기 초당 프레임레이트를 나타내는 단위로서 fps(Frame per Seconds)가 이용된다. 즉, 초당 프레임레이트의 수치가 높을수록 움직임은 부드럽게 그려질 수 있는 것이다.
예를 들어, 도3을 참조하여, 초당 프레임레이트가 20fps이며, 상기 소정시간이 0.2초이고, 상기 소정시간 내에 캐릭터(C)가 4m만큼 이동하였을 때를 가정할 때, 상기 소정시간은 0.2초이므로, 상기 소정시간 내에는 4프레임의 캐릭터(C) 이동 모션이 배정된다.
이때, 캐릭터(C)의 이동거리는 총 4m이므로, 각 프레임은 1m마다 배열될 수 있다. 따라서 캐릭터(C)가 0.2초에 4m를 이동하는 모습을 최대한 자연스럽게 표현할 수 있는 것이다.
상기와 같이, 생성된 위치데이터를 처리하는 과정을 거쳐, 제1사용자 및 제2사용자 간 캐릭터정보를 동기화할 수 있다.
도4는 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 캐릭터 위치 변경 중 정지동작데이터가 수신될 경우의 처리 과정을 나타내는 도면이다. 이를 참조하여, 동작데이터에 대해 설명하도록 한다.
제1사용자가 조종하는 캐릭터(C)가 이동 외의 특정 동작을 수행할 경우, 생성되는 캐릭터정보는 동작데이터이다. 이와 같이 캐릭터(C)가 위치를 변경하는 것 외에 수행할 수 있는 행동은 매우 다양하며, 이에 대한 캐릭터정보를 동작데이터라 한다.
그리고, 동작데이터의 종류가 많아질수록, 상기 동작데이터의 정보를 그대로 송수신할 경우 데이터양의 크기에 따른 불편함이 발생할 수 있다. 따라서 상기 동작데이터에 해당되는 캐릭터(C)의 행동 각각에 동작번호를 부여하고, 상기 동작데이터를 상기 동작번호 형태로 송수신하는 방법이 사용될 수 있다. 이에 따라 데이터양이 감소되며, 동작데이터를 더욱 신속하게 처리할 수 있는 것이다.
한편, 동작데이터는 캐릭터(C)가 정지 상태일 경우에만 수행할 수 있는 정지동작데이터 및 캐릭터(C)가 위치 변경 상태일 경우에도 수행할 수 있는 이동동작데이터를 포함할 수 있다.
예를 들어, 캐릭터(C)가 무기를 휘두르는 동작이 캐릭터(C)가 이동 중 이동을 멈추지 않으면서 수행 가능할 경우에, 이는 이동동작데이터로 분류할 수 있다. 그리고, 캐릭터(C)가 지면에 앉거나, 제자리에서 기력을 모으는 등 동작이 이동과 같이 수행될 수 없는 경우에는, 정지동작데이터로 분류할 수 있다.
그리고, 동작데이터는 송신단계(S1)에 의해 캐릭터(C)의 행동이 변경되어 캐릭터정보가 생성되는 즉시 제2사용자에게 송신되며, 처리단계(S4)에 의해 제2사용자가 수신한 캐릭터정보가 즉시 적용된다.
예를 들어, 제1사용자가 캐릭터(C)가 무기를 휘두르는 동작을 수행했을 경우, 제2사용자 측의 화면에는 즉시 상기 동작이 디스플레이되는 것이다. 즉, 이동동작데이터 및 정지동작데이터 모두 캐릭터(C)의 행동에 의해 캐릭터정보가 생성되는 즉시 제2사용자에게 송신된다.
한편, 캐릭터(C)의 위치가 변경되는 도중에 정지동작데이터가 수행될 경우에는, 위치데이터를 처리한 후에 정지동작데이터를 처리한다. 도5를 참조하면, 위치데이터가 생성되는 간격인 상기 소정시간 내에 정지동작데이터가 수신되며, 정지동작데이터 수신 이후의 위치데이터가 처리된 후 정지동작데이터가 처리됨을 알 수 있다.
즉, 캐릭터(C)의 위치가 변경되는 도중에 정지동작데이터가 수행될 경우, 정지동작데이터 전후의 위치데이터를 서로 대비하여 캐릭터(C)의 위치 변경을 처리한 뒤 정지동작을 처리하는 것이다.
상기와 같이 위치데이터 및 동작데이터의 송신 및 처리에 대해 설명하였으며, 이하에서는 도면을 참조하여 본 발명의 일련의 진행 과정을 설명한다.
도5는 본 발명의 데이터타입 분류에 따른 캐릭터정보 동기화 방법의 전체적인 진행 과정을 나타내는 순서도이다.
먼저, 제1사용자의 캐릭터의 위치 이동 또는 동작에 따른 캐릭터정보가 생성된다. 이후, 상기 캐릭터정보는 제2사용자에게 송신되며, 제2사용자는 이를 수신하게 된다. 이 과정까지가 송신단계(S1) 및 수신단계(S2)이다.
그리고, 상기 캐릭터정보를 판단하는 과정이 진행되며, 상기 캐릭터정보가 위치데이터인지 동작데이터인지를 판단한다.
위치데이터일 경우, 상기 위치데이터가 정시 상태에서 최초로 생성된 위치데이터인지 그렇지 않은지를 판단하는 과정을 다시 거치게 된다.
또한, 상기 캐릭터정보가 위치데이터가 아닐 경우, 이는 동작데이터이며, 상기 동작데이터가 정지동작데이터인지 이동동작데이터인지를 판단하는 과정을 거친다. 이 과정이 판단단계(S3)이다.
그리고, 각 캐릭터정보를 처리하는 단계가 이어진다. 상기 판단된 캐릭터정보가 최초위치데이터일 경우, 캐릭터의 위치를 즉시 변경하게 되며, 최초위치데이터가 아닐 경우, 직전에 생성된 위치데이터와 본 위치데이터를 대비하여 산출된 위치 변경 거리를 적용하여 캐릭터의 위치를 변경한다.
또한, 상기 캐릭터정보가 이동동작데이터일 경우, 캐릭터의 행동을 즉시 변경하게 되며, 정지동작데이터일 경우, 캐릭터가 위치 변경 중인지에 따라 처리 시점이 달라진다.
정지동작데이터이고, 캐릭터가 정지 상태라면 동작을 즉시 변경하게 되며, 캐릭터가 위치 변경 중이라면 먼저 캐릭터가 위치 변경된 이후 상기 동작을 변경하게 되는 것이다. 이 과정이 처리단계(S4)이다.
이와 같이, 상기 모든 과정을 거쳐, 제1사용자 및 제2사용자의 캐릭터정보는 동기화가 이루어지며, 서로 일치된 화면을 얻을 수 있다.
이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화 될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.

Claims (9)

  1. 온라인 게임 시스템에 의해 수행되는 캐릭터정보 동기화 방법에 있어서,
    제1사용자가 사용하는 캐릭터의 위치 변경에 따라 생성되는 위치데이터 또는 상기 캐릭터의 다양한 행동 변경에 따라 생성되는 동작데이터를 포함하는 캐릭터정보를 제2사용자에게 송신하는 송신단계;
    상기 캐릭터정보를 제2사용자가 수신하는 수신단계;
    상기 캐릭터정보의 데이터타입을 판단하는 판단단계; 및
    판단된 데이터타입에 따라 상기 캐릭터정보를 처리하는 처리단계;
    를 포함하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  2. 제1항에 있어서,
    상기 송신단계는,
    상기 캐릭터가 정지 상태에서 위치가 일정거리 이상 변경된 경우에는, 최초로 생성된 위치데이터를 상기 제2사용자에게 즉시 송신하고,
    상기 캐릭터가 위치 변경 상태에서 연속하여 위치가 상기 일정거리 이상 변경된 경우에는, 직전에 생성되어 송신된 위치데이터로부터 소정시간 경과 후 생성된 위치데이터를 상기 제2사용자에게 송신하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  3. 제2항에 있어서,
    상기 처리단계는,
    상기 캐릭터가 정지 상태일 경우에는, 최초로 수신된 위치데이터에 기반하여 캐릭터의 위치를 변경하며,
    상기 캐릭터가 위치 변경 상태일 경우에는, 직전에 수신된 위치데이터 및 직전에 수신된 위치데이터로부터 상기 소정시간 경과 후 수신된 최신 위치데이터와 대비하여 위치 변경거리를 산출하여 캐릭터의 위치를 변경하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  4. 제3항에 있어서,
    상기 산출된 위치 변경거리를 상기 캐릭터를 표현하는 애니메이션의 초당 프레임 수에 상기 소정시간을 곱하여 나온 소정시간당 프레임 수로 나누어 계산된 프레임당 위치 변경거리에 따라 상기 캐릭터의 위치를 변경하는 과정을 표현하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  5. 제1항에 있어서,
    상기 동작데이터에 포함되는 상기 캐릭터의 행동 각각에는 서로 다른 동작번호가 부여되어,
    상기 동작데이터를 상기 동작번호 형태로 송신 및 수신 가능한 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  6. 제1항에 있어서,
    상기 송신단계는,
    상기 캐릭터의 행동이 변경될 경우에는, 상기 동작데이터를 상기 제2사용자에게 즉시 송신하며,
    상기 처리단계는,
    수신된 상기 동작데이터에 해당하는 상기 캐릭터의 행동을 즉시 변경하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  7. 제1항에 있어서,
    상기 동작데이터는,
    상기 캐릭터가 정지 상태일 경우에만 수행할 수 있는 정지동작데이터 및 상기 캐릭터가 위치 변경 상태일 경우에도 수행할 수 있는 이동동작데이터를 포함하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  8. 제3항에 있어서,
    상기 동작데이터는,
    상기 캐릭터가 정지 상태일 경우에만 수행할 수 있는 정지동작데이터 및 상기 캐릭터가 위치 변경 상태일 경우에도 수행할 수 있는 이동동작데이터를 포함하며,
    상기 처리단계는,
    상기 소정시간 내에 상기 정지동작데이터가 수신될 경우에는, 직전에 수신된 위치데이터 및 상기 최신 위치데이터의 대비에 따라 캐릭터의 위치를 변경한 후에 상기 캐릭터의 행동을 변경하는 데이터타입 분류에 따른 캐릭터정보 동기화 방법.
  9. 제1항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
PCT/KR2011/000791 2010-02-12 2011-02-08 데이터타입 분류에 따른 캐릭터정보 동기화 방법 WO2011099731A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012552797A JP2013519427A (ja) 2010-02-12 2011-02-08 データタイプ分類によるキャラクター情報同期化方法
EP11742423.4A EP2535860A4 (en) 2010-02-12 2011-02-08 METHOD FOR SYNCHRONIZING CHARACTER INFORMATION BASED ON DATA TYPE CLASSIFICATION
US13/578,606 US20120309544A1 (en) 2010-02-12 2011-02-08 Method for Synchronizing Character Object Information by Classified Data Type

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0013526 2010-02-12
KR1020100013526A KR101099519B1 (ko) 2010-02-12 2010-02-12 데이터타입 분류에 따른 캐릭터정보 동기화 방법

Publications (2)

Publication Number Publication Date
WO2011099731A2 true WO2011099731A2 (ko) 2011-08-18
WO2011099731A3 WO2011099731A3 (ko) 2011-12-15

Family

ID=44368261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/000791 WO2011099731A2 (ko) 2010-02-12 2011-02-08 데이터타입 분류에 따른 캐릭터정보 동기화 방법

Country Status (5)

Country Link
US (1) US20120309544A1 (ko)
EP (1) EP2535860A4 (ko)
JP (2) JP2013519427A (ko)
KR (1) KR101099519B1 (ko)
WO (1) WO2011099731A2 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101528491B1 (ko) * 2013-01-22 2015-06-15 주식회사 넥슨코리아 게임서버 기준에 의한 로컬 클라이언트와 리모트 클라이언트에서의 프레임 동기화 방법 및 그 시스템
KR101488653B1 (ko) * 2013-01-22 2015-02-05 주식회사 넥슨코리아 로컬 클라이언트와 리모트 클라이언트에서의 타격 프레임과 피격 프레임 동기화 방법 및 그 시스템
KR101488698B1 (ko) * 2013-01-22 2015-02-05 주식회사 넥슨코리아 게임서버 기준에 의한 로컬 클라이언트와 리모트 클라이언트에서의 프레임 동기화 방법 및 그 시스템
KR101670170B1 (ko) 2015-04-21 2016-10-27 양원준 사용자 단말 및 그를 이용한 다중접속 온라인 게임의 위치 예측 방법
WO2019012683A1 (ja) * 2017-07-14 2019-01-17 ガンホー・オンライン・エンターテイメント株式会社 サーバ装置、プログラム及び方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659691A (en) * 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
CA2180899A1 (en) * 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US8508469B1 (en) * 1995-12-01 2013-08-13 Immersion Corporation Networked applications including haptic feedback
GB2359704B (en) * 2000-02-26 2002-05-08 Proksim Software Inc Sharing a computer-generated environment
US6826523B1 (en) * 2000-11-01 2004-11-30 Sony Computer Entertainment America Inc. Application development interface for multi-user applications executable over communication networks
JP3679350B2 (ja) * 2001-05-28 2005-08-03 株式会社ナムコ プログラム、情報記憶媒体及びコンピュータシステム
JP2004005044A (ja) * 2002-05-30 2004-01-08 Sony Corp 情報送受信装置、情報送信装置および方法、情報受信装置および方法、情報処理装置および方法、情報送信管理装置および方法、情報受信管理装置および方法、記録媒体、並びにプログラム
KR20020073313A (ko) * 2002-06-12 2002-09-23 조두금 단말기 바탕화면의 아바타 생성 방법 및 장치및 그를이용한 커뮤니티 통신 방법 및 시스템, 및 아바타 게임방법
JP4047874B2 (ja) * 2005-06-28 2008-02-13 株式会社コナミデジタルエンタテインメント ゲームシステム及びその制御方法、ゲーム装置、並びにプログラム
US20070060233A1 (en) * 2005-08-26 2007-03-15 Liccardo Anthony J Video Game System and Method with Trade Based Characters, Weapons and Fight Environments
JP3957725B2 (ja) * 2005-10-04 2007-08-15 任天堂株式会社 通信ゲームプログラムおよび通信ゲームシステム
JP2007206755A (ja) * 2006-01-31 2007-08-16 Sony Computer Entertainment Inc 情報処理システム、情報処理装置、情報処理プログラム、情報処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体
JP5196729B2 (ja) * 2006-04-11 2013-05-15 任天堂株式会社 通信ゲームシステム
JP2007301042A (ja) * 2006-05-09 2007-11-22 Aruze Corp サーバ及びゲームシステム
US8142289B2 (en) * 2006-06-30 2012-03-27 Sony Computer Entertainment America Llc Dead reckoning in a gaming environment
KR100841925B1 (ko) * 2006-09-27 2008-06-30 한국전자통신연구원 디지털 캐릭터 동작생성 시스템 및 방법
JP2009070076A (ja) * 2007-09-12 2009-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成装置
JP2009247555A (ja) * 2008-04-04 2009-10-29 Namco Bandai Games Inc 画像生成システム、プログラム及び情報記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2535860A4

Also Published As

Publication number Publication date
EP2535860A4 (en) 2014-12-17
KR20110093466A (ko) 2011-08-18
US20120309544A1 (en) 2012-12-06
WO2011099731A3 (ko) 2011-12-15
EP2535860A2 (en) 2012-12-19
JP2015180326A (ja) 2015-10-15
JP2013519427A (ja) 2013-05-30
KR101099519B1 (ko) 2011-12-28

Similar Documents

Publication Publication Date Title
WO2011099731A2 (ko) 데이터타입 분류에 따른 캐릭터정보 동기화 방법
WO2013042985A2 (ko) 수신 확인을 제공하는 대화형 메시징 서비스 운용 방법
CN111614444B (zh) 混合自动重传请求确认反馈方法和终端
WO2018070754A1 (en) System and method to prevent boundary artifacts
WO2019151793A1 (en) Apparatus and method for sharing a virtual reality environment
WO2014014185A1 (en) Method of controlling display of display device by mobile terminal and mobile terminal for the same
WO2018070803A1 (en) Method and apparatus for session control support for field of view virtual reality streaming
WO2017095179A1 (en) Method and apparatus for image enhancement of virtual reality images
WO2011139012A1 (ko) 고해상도 타일드 디스플레이를 지원하는 햅틱기반 네트워크 가상환경 구현 장치 및 방법
CN112154669A (zh) 基于系统时钟的视频流帧时间戳的相关
CN111064891B (zh) 一种拍摄控制方法及电子设备
WO2012161409A1 (en) Method and device for performing service in network
WO2013125773A1 (en) System and method for controlling motion using time synchronization between picture and motion
WO2010128798A2 (ko) 휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법
WO2013125915A1 (en) Method and apparatus for processing information of image including a face
EP2499756A2 (en) Apparatus and method for reproducing multi-sound channel contents using dlna in mobile terminal
WO2022131720A1 (ko) 건축물 이미지를 생성하는 장치 및 방법
WO2020101121A1 (ko) 딥러닝 기반의 영상분석 방법, 시스템 및 휴대 단말
WO2018199724A1 (ko) 양방향 커뮤니케이션이 가능한 가상현실 시스템
WO2020231215A1 (ko) 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN109558103B (zh) 双面屏终端显示控制方法、装置、移动终端及存储介质
WO2023224169A1 (ko) 3차원 스켈레톤 추정 시스템 및 3차원 스켈레톤 추정 방법
CN111132233B (zh) 一种分离承载的控制方法及相关设备
WO2012153894A1 (ko) 엔 스크린 콘텐츠 브라우징 동기화 방법 및 시스템
WO2013065892A1 (ko) 안드로이드 플랫폼 기반의 방송수신장치의 계정관리를 이용한 개인별 맞춤서비스 제공방법, 및 이를 위한 개인별 맞춤서비스 제공 프로그램을 기록한 컴퓨터로 판독가능한 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11742423

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13578606

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012552797

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2011742423

Country of ref document: EP