CN112888914A - 跟踪器校准装置,跟踪器校准方法和程序 - Google Patents

跟踪器校准装置,跟踪器校准方法和程序 Download PDF

Info

Publication number
CN112888914A
CN112888914A CN201880098888.3A CN201880098888A CN112888914A CN 112888914 A CN112888914 A CN 112888914A CN 201880098888 A CN201880098888 A CN 201880098888A CN 112888914 A CN112888914 A CN 112888914A
Authority
CN
China
Prior art keywords
tracker
data
coordinate system
calibration
pieces
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880098888.3A
Other languages
English (en)
Other versions
CN112888914B (zh
Inventor
大桥良德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of CN112888914A publication Critical patent/CN112888914A/zh
Application granted granted Critical
Publication of CN112888914B publication Critical patent/CN112888914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1018Calibration; Key and button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

提供一种跟踪器校准装置、跟踪器校准方法和程序,其使得能够精确校准多种类型的跟踪器而无需预先测量它们的相对位置。跟踪器数据获取部分(50)获取多项第一跟踪器数据,第一跟踪器数据指示使用第一坐标系表示的第一跟踪器的位置。跟踪器数据获取部分(50)获取多项第二跟踪器数据。第二跟踪器数据指示使用第二坐标系表示的第二跟踪器的位置。基于多项第一跟踪器数据和多项第二跟踪器数据,参数估计部分(58)估计用于将使用第二坐标系表示的位置转换为第一坐标系中的表达式的参数值、以及第二跟踪器相对于第一跟踪器的相对位置。

Description

跟踪器校准装置,跟踪器校准方法和程序
技术领域
本发明涉及跟踪器校准装置、跟踪器校准方法和程序。
背景技术
已知一种身体跟踪技术,用于基于指示用户佩戴的多个跟踪器的位置和方向的数据来实现反向运动学(IK),以便估计佩戴多个跟踪器的用户的多个身体部位的位置和方向,包括没有佩戴跟踪器的身体部位的位置和方向。
此外,近年来,各种供应商提供了各种类型的跟踪器。例如,一些跟踪器根据布置在跟踪器周围的多个传感器(例如相机和红外传感器)的检测结果来执行跟踪。例如,一些其它跟踪器使用SLAM(同步定位和映射)技术,并且根据由布置在跟踪器上的相机捕获的图像的分析结果来执行跟踪。使用SLAM技术不仅能够进行跟踪,而且可以扫描环境,并且将真实空间的结构真实地显示为虚拟对象。此外,一些跟踪器例如通过使用由惯性传感器或GPS(全球定位系统)模块进行的测量的结果来执行跟踪。
发明内容
[技术问题]
取决于类型,上述跟踪器各有优缺点。因此,在某些情况下,优选地将多种类型的跟踪器一起使用。此外,跟踪器的位置通常在独立的坐标系中表示,该坐标系因跟踪器的类型而异。因此,在多种类型的跟踪器一起使用的情况下,需要预先执行校准,以便可以在单个坐标系中表示多种类型的跟踪器的位置。此外,需要在多种类型的跟踪器的相对位置和姿势固定时执行校准。
如果在假设多种类型的跟踪器处于相同位置的情况下执行校准,则校准的结果存在显著误差。尽管可以通过使用多种类型的跟踪器的相对位置的预先测量来执行校准来抑制这种误差的发生,但是进行这种预先测量是麻烦的。
本发明是鉴于上述情况做出的。本发明的目的是提供一种跟踪器校准装置、跟踪器校准方法和程序,该跟踪器校准装置、跟踪器校准方法和程序使得能够准确地校准多种类型的跟踪器而无需预先测量它们的相对位置。
[问题的解决方案]
为解决上述问题,根据本发明的跟踪器校准装置包括:第一跟踪器数据获取部分、第二跟踪器数据获取部分和估计部分。第一跟踪器数据获取部分获取多条第一跟踪器数据。所述第一跟踪器数据指示第一跟踪器的位置,所述第一跟踪器的位置在校准期间被测量并且在第一坐标系中表示。当第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定时所述校准被执行。第二跟踪器数据获取部分获取多条所述第二跟踪器数据。所述第二跟踪器数据指示所述第二跟踪器的位置和方向,所述第二跟踪器的位置和方向在所述校准期间被测量,并且在独立于所述第一坐标系的第二坐标系中表示。估计部分基于所述多条第一跟踪器数据和所述多条第二跟踪器数据,估计用于将所述第二坐标系中表示的所述位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置。
根据本发明的一个方面,所述跟踪器校准装置还包括:样本数据生成部分,其生成包括测量时刻彼此相关联的所述第一和第二跟踪器数据的多条样本数据。基于所述多条样本数据,所述估计部分估计用于将所述第二坐标系中表示的所述位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置。
在以上方面中,所述样本数据生成部分可根据以增加方向变化的方式选择的所述第一和第二跟踪器数据生成所述多条样本数据。
此外,根据基于所述多条第一跟踪器数据所识别的所述第一跟踪器的速度、加速度和角速度中的至少一个的时间序列,以及基于所述多条第二跟踪器数据所识别的所述第二跟踪器的速度、加速度和角速度中的至少一个的时间序列,所述样本数据生成部分可生成测量时刻彼此对应的所述多条样本数据。
在上述方面中,根据所述第一跟踪器的速度、加速度和角速度中的至少一个的标准时间序列,以及基于所述多条第二跟踪器数据所识别的所述第二跟踪器的速度、加速度和角速度中的至少一个的标准时间序列,所述样本数据生成部分可生成测量时刻彼此对应的所述多条样本数据。
此外,根据本发明的一个方面,所述第一跟踪器和所述第二跟踪器被设置在壳体中,而所述第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定。
此外,根据本发明的一个方面,所述第一跟踪器和所述第二跟踪器是不同类型的跟踪器。
此外,根据本发明的一个方面,在所述校准期间由所述估计部分估计了用于将所述第二坐标系中表示的所述位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置之后,所述第一跟踪器和所述第二跟踪器能够被单独使用。另外,在单独使用所述第一跟踪器和所述第二跟踪器之后,在所述第二跟踪器相对于所述第一跟踪器的相对位置和方向被固定为不同于在上一次校准期间估计的相对位置和方向的状态下,在再次进行所述校准期间,所述估计部分估计所述第二跟踪器相对于所述第一跟踪器的相对位置,所述相对位置不同于在所述上一次校准期间估计的相对位置。
此外,根据本发明的跟踪器校准方法包括:获取多条第一跟踪器数据的步骤,所述第一跟踪器数据指示第一跟踪器的位置,所述第一跟踪器的位置在校准期间被测量并且在第一坐标系中表示,当所述第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定时执行所述校准;获取多条第二跟踪器数据的步骤,所述第二跟踪器数据指示所述第二跟踪器的位置和方向,所述第二跟踪器的位置和方向在所述校准期间被测量并在独立于所述第一坐标系的第二坐标系中表示;以及基于所述多条第一跟踪器数据和所述多条第二跟踪器数据,估计用于将所述第二坐标系中表示的位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置的步骤。
此外,根据本发明的程序,使计算机执行:获取多条第一跟踪器数据的过程,所述第一跟踪器数据指示第一跟踪器的位置,所述第一跟踪器的位置在校准期间被测量并且在第一坐标系中表示,当所述第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定时执行所述校准;获取多条第二跟踪器数据的过程,所述第二跟踪器数据指示所述第二跟踪器的位置和方向,所述第二跟踪器的位置和方向在所述校准期间被测量并在独立于所述第一坐标系的第二坐标系中表示;以及基于所述多条第一跟踪器数据和所述多条第二跟踪器数据,估计用于将所述第二坐标系中表示的位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置的过程。
附图说明
图1是示出根据本发明实施例的娱乐系统的配置示例的图。
图2是示出根据本发明实施例的娱乐装置的配置示例的图。
图3是示出骨架模型的示例的图。
图4是示出根据本发明实施例的娱乐装置实现的功能的示例的功能框图。
图5是示出关于第一类型的跟踪器的测量时刻数据值和速度之间的关系的示例的示意图。
图6是示出关于第二类型的跟踪器的测量时刻数据值和速度之间的关系的示例的示意图。
图7是示出由根据本发明实施例的娱乐装置执行的处理的示例的流程图。
图8是示出根据本发明实施例的跟踪器的另一示例的图。
具体实施方式
图1是示出根据本发明实施例的娱乐系统10的配置示例的图。图2是示出根据本实施例的娱乐装置14的配置示例的图。
如图1所示,根据本实施例的娱乐系统10包括多个跟踪器12(图1的示例中的跟踪器12a到12e)、娱乐装置14、中继装置16、显示器18和相机/麦克风单元20。
根据本实施例的跟踪器12例如是用于跟踪跟踪器12的位置和方向的设备。在本实施例中,跟踪器12a、跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e分别佩戴在用户的头部、左手、右手、左脚和右脚上。如图1所示,跟踪器12b和跟踪器12c可适于被用户的手抓住。
在本实施例中,跟踪器12a、跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e标识的位置和方向分别对应于用户的头部、左手、右手、左脚和右脚的位置和方向。如上所述,本实施例中的多个跟踪器12标识包括在用户身体中的多个身体部位的位置和方向。
此外,在本实施例中,相机被布置在跟踪器12a上。根据对放置在跟踪器12a上的相机捕获到的图像的分析结果,使用SLAM技术对跟踪器12a进行跟踪。
此外,跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e根据布置在跟踪器12周围的多个传感器(例如相机和红外传感器)的检测结果来执行对跟踪器12的跟踪。在这种情况下,可以基于图像来识别跟踪器12的位置和方向,该图像包括由稍后描述的包括在相机/麦克风单元20中的相机20a捕获的跟踪器12的图像。
如上所述,在本实施例中,跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e在类型上与跟踪器12a不同。下文中,跟踪器12a被称为第一类型的跟踪器12,而跟踪器12b、跟踪器12c、跟踪器12d,跟踪器12e被称为第二类型的跟踪器12。
此外,在本实施例中,第一类型的跟踪器12的位置和第二类型的跟踪器12的位置在相互独立的坐标系中分别表示。在下文中,用于表示第一类型的跟踪器12的位置的坐标系被称为第一坐标系,而用于表示第二类型的跟踪器12的位置的坐标系被称为第二坐标系。应当注意,第一类型的跟踪器12的位置和方向可以在第一坐标系中表示,并且第二类型的跟踪器12的位置和方向可以在第二坐标系中表示。
此外,在本实施例中,以预定的第一采样率测量第一类型的跟踪器12的位置和方向,并且以预定的第二采样率测量第二类型的跟踪器12的位置和方向。在这种情况下,第一采样率和第二采样率可以彼此相等或不同。
根据本实施例的娱乐装置14是诸如游戏机、DVD(数字多功能光盘)播放器或蓝光(注册商标)播放器的计算机。根据本实施例的娱乐装置14例如通过执行存储的游戏程序或记录在光盘上的游戏程序或通过再现内容来生成视频和音频。然后,根据本实施例的娱乐装置14通过中继装置16向显示器18输出表示生成的视频的视频信号和表示生成的音频的音频信号。
例如,如图2中所示,根据本实施例的娱乐装置14包括处理器30、存储部分32、通信部分34和输入/输出部分36。
处理器30是CPU(中央处理单元)或其他程序控制设备,其根据安装在例如娱乐装置14上的程序进行操作。根据本实施例的处理器30包括GPU(图形处理单元),其根据从CPU提供的图形命令和数据在帧缓冲区中绘制图像。
存储部分32例如是存储元件,例如ROM(只读存储器)或RAM(随机存取存储器)或硬盘驱动器。例如,存储部分32存储由处理器30执行的程序。此外,根据本实施例的存储部分32具有由GPU绘制图像的帧缓冲区。
通信部分34是诸如无线LAN(局域网)模块的通信接口。
输入/输出部分36是输入/输出端口,例如HDMI(高清多媒体接口)(注册商标)端口或USB(通用串行总线)端口。
根据本实施例的中继装置16是计算机,该计算机中继从娱乐装置14输出的视频信号和音频信号,并将其输出到显示器18。
根据本实施例的显示器18例如是液晶显示器,并且用于显示例如由从娱乐装置14输出的视频信号表示的视频图像。
根据本实施例的相机/麦克风单元20包括相机20a和麦克风20b。相机20a捕获例如对象的图像并将捕获的图像输出到娱乐装置14。麦克风20b获取环境声音,将环境声音转换为音频数据,并将音频数据输出到娱乐装置14。此外,根据本实施例的相机20a是立体相机。
跟踪器12和中继装置16例如能够相互无线地发送和接收数据。娱乐装置14和中继装置16例如经由HDMI电缆或USB电缆连接,并且能够相互发送和接收数据。中继装置16和显示器18例如经由HDMI电缆连接。娱乐装置14和相机/麦克风单元20例如经由辅助(AUX)电缆连接。
在本实施例中,当游戏程序由娱乐装置14执行时,根据包括在由图3所示的骨架模型40表示的用户身体中的多个身体部位的位置或方向来执行诸如游戏处理的各种类型的处理。然后,例如在显示器18上显示基于这种处理的结果的视频图像。
如图3所示,根据本实施例的骨架模型40包括头部节点42a、左手节点42b、右手节点42c、左脚节点42d和右脚节点42e。头部节点42a对应于佩戴跟踪器12a的用户的头部。左手节点42b对应于佩戴跟踪器12b的用户的左手。右手节点42c对应于佩戴跟踪器12c的用户的右手。左脚节点42d对应于佩戴跟踪器12d的用户的左脚。右脚节点42e对应于佩戴跟踪器12e的用户的右脚。
此外,除了上述节点42之外,骨架模型40还包括胸部节点42f、腰部节点42g、左肩节点42h、左肘节点42i和左腕节点42j。此外,骨架模型40还包括右肩节点42k、右肘节点42l、右腕节点42m、左膝节点42n、左踝节点42o、右膝节点42p和右踝节点42q。
这里,如图3所示,头部节点42a和胸部节点42f通过链路连接。此外,胸部节点42f和腰部节点42g通过链路连接。
此外,胸部节点42f和左肩节点42h通过链路连接。此外,左肩节点42h和左肘节点42i通过链路连接。另外,左肘节点42i和左腕节点42j通过链路连接。此外,左手腕节点42j和左手节点42b通过链路连接。
此外,胸部节点42f和右肩节点42k通过链路连接。此外,右肩节点42k和右肘节点42l通过链路连接。此外,右肘节点42l和右腕节点42m通过链路连接。另外,右腕节点42m和右手节点42c通过链路连接。
此外,腰部节点42g和左膝节点42n通过链路连接。此外,左膝节点42n和左踝节点42o通过链路连接。此外,左脚踝节点42o和左脚节点42d通过链路连接。
此外,腰部节点42g和右膝节点42p通过链路连接。此外,右膝节点42p和右踝节点42q通过链路连接。此外,右踝节点42q和右脚节点42e通过链路连接。
上述节点42分别对应于用户身体中所包含的身体部位。此外,在本实施例中,例如,可以基于相对于多个跟踪器12标识的位置和方向来执行身体跟踪。在这种情况下,本实施例例如估计骨架模型40中包括的多个节点42中的每个节点相对于初始状态中的参考位置的位置、以及多个节点42中的每个节点相对于初始状态中的参考方向的方向。
在上述实例中,例如,可以基于指示相对于跟踪器12a标识的位置和方向的数据来确定头部节点42a的位置和方。类似地,可以基于指示相对于跟踪器12b标识的位置和方向的数据来确定左手节点42b的位置和方向。此外,可以基于指示相对于跟踪器12c标识的位置和方向的数据来确定右手节点42c的位置和方向。此外,可以基于指示相对于跟踪器12d标识的位置和方向的数据来确定左脚节点42d的位置和方向。此外,可以基于指示相对于跟踪器12e标识的位置和方向的数据来确定右脚节点42e的位置和方向。
随后,例如,通过基于指示头部节点42a、左手节点42b、右手节点42c、左脚节点42d、以及右脚节点42e的确定的位置和方向的数据执行逆运动学(IK)计算或机器学习来估计其他节点42的位置和方向。
追踪器12的优点和缺点取决于类型。因此,在某些情况下,优选地将多种类型的跟踪器12一起使用。因此,在多个类型的跟踪器12一起使用的情况下,需要预先执行校准,例如,执行装运前校准,使得多个类型的跟踪器12的位置可以在单个坐标系中表示。校准需要在多个类型的跟踪器12的相对位置和姿势固定时执行。
如果在假设多个类型的跟踪器12处于相同位置的情况下执行校准,则校准的结果存在显著误差。尽管可以通过使用多个类型的跟踪器12的相对位置的预先测量来执行校准来抑制这种误差的发生,但是进行这种预先测量是麻烦的。
鉴于上述情况,本实施例被配置成能够校准多个类型的跟踪器12,而无需预先测量它们的相对位置。
下面进一步描述与本实施例中的跟踪器12的校准有关的娱乐装置14的功能和由娱乐装置14执行的处理。
图4是示出根据本实施例的娱乐装置14实现的功能的示例的功能框图。应当注意,图4中描绘的所有功能不需要由根据本实施例的娱乐装置14来实现。还应当注意,可以实现除图4中描绘的那些功能之外的功能。
如图4所示,根据本实施例的娱乐装置14在功能上包括跟踪器数据获取部分50、跟踪器数据存储部分52、测量时刻数据转换部分54、样本数据生成部分56、参数估计部分58和参数数据存储部分60。
跟踪器数据获取部分50主要由处理器30和输入/输出部分36实现。跟踪器数据存储部分52和参数数据存储部分60主要由存储部分32实现。测量时刻数据转换部分54、样本数据生成部分56和参数估计部分58主要由处理器30实现。
可以通过允许处理器30执行程序来实现上述功能,该程序具有与上述功能对应的命令,并安装在作为计算机的娱乐装置14上。可经由光盘、磁盘、磁带、磁光盘、闪存或其它计算机可读信息存储介质或经由例如因特网将程序提供给娱乐装置14。
下面描述通过使用跟踪器12a(第一类型的跟踪器12)和跟踪器12b(第二类型的跟踪器12)执行的校准的示例。在这个校准的示例中,首先,用户用一只手握住跟踪器12a和跟踪器12b,以便固定跟踪器12b相对于跟踪器12a的相对位置和方向。在保持结果状态的同时,用户自由移动跟踪器12a和跟踪器12b一段时间。
在本实施例中,跟踪器数据获取部分50获取跟踪器数据,该跟踪器数据指示例如在校准期间获得的跟踪器12的位置和方向的测量结果。
在这种情况下,基于跟踪器12的位置和方向的测量,指示测量结果的跟踪器数据可以从跟踪器12发送到娱乐装置14。然后,跟踪器数据获取部分50可以接收发送的跟踪器数据。或者,指示跟踪器12的位置和方向的测量结果的跟踪器数据可以例如从布置在跟踪器12周围的传感器发送到娱乐装置14。然后,跟踪器数据获取部分50可以接收发送的跟踪器数据。应当注意,在本实施例中,关于跟踪器12的标识信息和表示测量时刻的测量时刻数据与指示跟踪器12的位置和方向的测量结果的跟踪器数据相关联。
指示跟踪器12a的位置和方向并在第一坐标系中表示的跟踪器数据在下文中被称为第一跟踪器数据。此外,指示跟踪器12b的位置和方向并在第二坐标系中表示的跟踪器数据在下文中被称为第二跟踪器数据。
如上所述,本实施例例如以第一采样率测量跟踪器12a的位置和方向。跟踪器数据获取部分50然后获取以第一采样率测量并且在测量时刻上彼此不同的多条第一跟踪器数据。此外,如上所述,本实施例例如以第二采样率测量跟踪器12b的位置和方向。然后,跟踪器数据获取部分50获取以第二采样率测量并且在测量时刻上彼此不同的多条第二跟踪器数据。
在本实施例中,跟踪器数据存储部分52存储例如由跟踪器数据获取部分50获取的跟踪器数据。在这种情况下,如上所述,要存储在跟踪器数据存储部分52中的跟踪器数据可以与关于跟踪器12的标识信息和测量时刻数据相关联。这里,例如,跟踪器数据存储部分52存储上述多条第一跟踪器数据和上述多条第二跟踪器数据。
在本实施例中,例如,测量时刻数据转换部分54转换与多条第一跟踪器数据或多条第二跟踪器数据相关联的测量时刻数据。第一类型的跟踪器12和第二类型的跟踪器12通常在用于表示由测量时刻数据指示的测量时刻的格式上不同。例如,由关于第一类型的跟踪器12的测量时刻数据指示的测量时刻用时间戳值表示,而由关于第二类型的跟踪器12的测量时刻数据指示的测量时刻用秒表示。此外,第一类型的跟踪器12和第二类型的跟踪器12通常在对应于测量时刻值为0的时刻的时间点上不同。因此,测量时刻数据转换部分54转换测量时刻数据,以标准化用于表示测量时刻的格式以及与测量时刻值为0的时刻相对应的时间点。
测量时刻数据转换部分54例如基于多条第一跟踪器数据来识别跟踪器12a的速度的时间序列。此外,测量时刻数据转换部分54例如基于多条第二跟踪器数据来识别跟踪器12b的速度的时间序列。图5是示出关于作为第一类型的跟踪器12的跟踪器12a的测量时刻数据值和速度之间的关系的示例的示意图。图6是示出关于作为第二类型的跟踪器12的跟踪器12b的测量时刻数据值和速度之间的关系的示例的示意图。这里,例如,可以转换与关于跟踪器12a的跟踪器数据相关联的测量时刻数据,使得关于跟踪器12a的测量时刻数据值和速度之间的对应关系与关于跟踪器12b的对应关系大致相同。应当注意,如图5和6所示的是速度的标准值。
这里,例如,可以转换与关于跟踪器12a的跟踪器数据相关联的测量时刻数据,使得低速情况下的测量时刻数据值可以彼此对应。例如,在图5中描绘的时刻A1到A7处的速度和图6中描绘的时刻B1到B7处的速度等于或低于预定速度的情况下,众所周知的内插技术可用于执行转换,使得图5中的时刻A1到A7处的测量时刻数据值分别约等于图6中的时刻B1到B7处的测量时刻数据值。在上述情况下,可以执行转换,使得例如在速度为0的时刻处的测量时刻数据值彼此相等。
例如,由于由测量时刻数据转换部分54执行的转换,由与第一跟踪器数据相关联的测量时刻数据指示的测量时刻以秒表示。此外,与第一类型的跟踪器12和第二类型的跟踪器12具有0的测量时刻数据值的时刻对应的时间点相同或近似相同。
应当注意,测量时刻数据转换部分54可以根据加速度或角速度的时间序列而不是速度的时间序列来转换测量时刻数据。此外,测量时刻数据转换部分54可以根据加速度或角速度的标准时间序列而不是速度的标准时间序列来转换测量时刻数据。例如,可以转换与关于跟踪器12a的跟踪器数据相关联的测量时刻数据,使得关于跟踪器12a的测量时刻数据值和加速度之间的对应关系与关于跟踪器12b的对应关系大致相同。此外,例如,与关于跟踪器12a的跟踪器数据相关联的数据可以被转换,使得关于跟踪器12a的测量时刻数据值和角速度之间的对应关系与关于跟踪器12b的对应关系大致相同。
在本实施例中,样本数据生成部分56例如生成多条样本数据,其包括测量时刻彼此对应的第一和第二跟踪器数据。在上述实例中,例如,可以生成包括测量时刻数据值彼此对应的第一和第二跟踪器数据的多条样本数据。在这种情况下,例如,可以生成大约50到200条样本数据。
此外,根据第一跟踪器12a的速度、加速度和角速度中的至少一个的时间序列和第二跟踪器12b的速度、加速度和角速度中的至少一个的时间序列,样本数据生成部分56可以生成测量时刻彼此对应的多条样本数据。此外,根据第一跟踪器12a的速度、加速度和角速度中的至少一个的标准时间序列和第二跟踪器12b的速度、加速度和角速度中的至少一个的标准时间序列,样本数据生成部分56可以生成测量时刻彼此对应的多条样本数据。例如,如前所述,可以基于通过根据跟踪器12a的速度时间序列和跟踪器12b的速度时间序列转换测量时刻数据而获得的跟踪器数据,来生成测量时刻彼此对应的多条样本数据。应当注意,可以基于加速度或角速度的标准时间序列而不是速度的标准时间序列来生成多条样本数据。此外,可以基于向量时间序列而不是标准时间序列来生成多条样本数据。
此外,样本数据生成部分56可以根据所选择的第一和第二跟踪器数据生成多个样本数据,以增加位置或方向的变化。例如,可以生成多条样本数据,使得跟踪器12a和跟踪器12b的位置的变化尽可能地增加。此外,例如,可以生成多条样本数据,使得跟踪器12b的方向的变化尽可能地增加。
在本实施例中,例如,基于多条第一跟踪器数据和多条第二跟踪器数据,参数估计部分58估计用于将在第二坐标系中表示的位置转换为在第一坐标系中的表达式的参数值。此外,在本实施例中,参数估计部分58不仅估计上述参数值,而且估计跟踪器12b相对于跟踪器12a的相对位置。
在上面的例子中,以如下方式估计值Rc、值P0和值Pc,使得尽可能减小数值表达式P1=Rc×(P2+R2×P0)+Pc的左侧和右侧值之间的差。用于对每条样本数据执行计算的上述数值表达式的左侧和右侧值之间的差的均方根(RMS)可以被引用为上述误差的示例索引。在这种情况下,例如,可以通过最速下降或其他适当的方法来执行顺序估计。
这里,值P1例如是用于表示在第一坐标系中表示的跟踪器12a的位置向量的三维坐标值。在这种情况下,值P1例如等效于表示跟踪器12a的位置的值,其由包括在由样本数据生成部分56生成的样本数据中的第一跟踪器数据指示。
同时,值P2例如是用于表示在第二坐标系中表示的跟踪器12b的位置向量的三维坐标值。在该实例中,值P2例如等效于表示跟踪器12b的位置的值,其由包括在样本数据中的第二跟踪器数据指示。
此外,值R2例如是表示跟踪器12b相对于在第二坐标系中表示的预定基准方向的旋转的旋转矩阵。在该实例中,值R2例如等效于表示跟踪器12b的方向的值,其由包括在样本数据中的第二跟踪器数据指示。
此外,要估计的值Rc和值Pc等效于用于将在第二坐标系中表示的位置转换为在第一坐标系中的表达式的参数值。例如,值Rc和值Pc分别是旋转矩阵和平移向量,用于将在第二坐标系中表示的位置转换为在第一坐标系中的表达式。
此外,要估计的值P0等效于指示跟踪器12b相对于跟踪器12a的相对位置的值。例如,在通过将跟踪器12a的位置向量(由值P1指示并在第一坐标系中表示)转换为第二坐标系中的表达式来确定参考位置的情况下,值P0例如是指示跟踪器12b的相对位置(由值P2指示并在第二坐标系中表示)的值。
在本实施例中,参数数据存储部分60存储例如用于将第二坐标系中表示的位置转换为第一坐标系中的表达式的参数值、和指示跟踪器12b相对于跟踪器12a的相对位置的参数数据。在该实例中,例如,参数估计部分58生成指示在校准结束时获得的值Rc、P0和Pc的参数数据,并将生成的参数数据存储在参数数据存储部分60中。
在校准结束之后,在跟踪器12a、跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e(如图1所示)被佩戴在用户的身体上的同时,身体跟踪开始。在身体跟踪期间,如上所述,第一坐标系能够根据存储在参数数据存储部分60中的参数数据来表示跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e的位置和方向。因此,跟踪器12a、跟踪器12b、跟踪器12c、跟踪器12d和跟踪器12e的所有位置可以在单个坐标系中表示。因此,基于在第一坐标系中表示的跟踪器12a、12b、12c、12d和12e的位置和方向来执行身体跟踪。
如上所述,本实施例使得能够准确地校准多种类型的跟踪器12,而无需预先测量它们的相对位置。
此外,当估计值P0时,如上所述,本实施例使用值R2,该值R2是用于表示跟踪器12b相对于在第二坐标系中表示的预定参考方向的旋转的旋转矩阵。因此,基于所选择的第一跟踪器数据和第二跟踪器数据来生成多条样本数据,以便增加方向上的变化。这使得能够更准确地估计值P0。
此外,在校准期间由参数估计部分58执行上述估计之后,本实施例允许跟踪器12a和跟踪器12b被单独使用。随后,在单独使用跟踪器12a和跟踪器12b之后,可以在跟踪器12b相对于跟踪器12a的相对位置和方向被固定以不同于上一次校准的同时执行重新校准。然后,在重新校准中,参数估计部分58可以估计与在上一次校准期间估计的值不同的值P0。如上所述,即使当跟踪器12b相对于跟踪器12a的相对位置从一个校准到另一个校准改变时,本实施例也不会引起问题。
现在将参照图7所示的流程图来描述根据本实施例的娱乐装置14执行的处理的示例。
在下面的描述中,假设多条第一跟踪器数据和多条第二跟踪器数据被存储在跟踪器数据存储部分52中。此外,假设与跟踪器12有关的识标识信息和测量时刻数据与前面所述的跟踪器数据相关联。此外,假设指示被设置为预定初始值的值Rc、P0和Pc的参数数据被存储在参数数据存储部分60中。
首先,如上所述,测量时刻数据转换部分54转换与多条第一跟踪器数据中的每一个相关联的测量时刻数据(步骤S101)。
接下来,样本数据生成部分56生成多条样本数据,多条样本数据包括测量时刻中此对应的第一和第二跟踪器数据(步骤S102)。
接下来,参数估计部分58选择在步骤S102的处理中生成但在步骤S104和S105中尚未处理的多条样本数据中的一个(步骤S103)。
接下来,基于如上所述在步骤S103中选择的样本数据,参数估计部分58估计当前循环中的值Rc、P0和Pc(步骤S104)。
接下来,参数估计部分58将存储在参数数据存储部分60中的参数数据更新为指示在步骤S104的处理中估计的值Rc、P0和Pc的参数数据(步骤S105)。
接下来,参数估计部分58确认是否对在步骤S102的处理中生成的所有样本数据执行步骤S104和S105中的处理(步骤S106)。如果仍然没有对在步骤S102的处理中生成的所有样本数据执行步骤S104和S105中的处理(步骤S106中的否),则处理返回到步骤S103。同时,如果确认对在步骤S102的处理中生成的所有样本数据执行了步骤S104和S105中的处理(步骤S106中的是),则本示例中描述的处理终止。
在前面的描述中,如图1所示,当跟踪器12a到12e穿戴在用户身上时,假设在识别它们的位置和方向之前进行校准。
然而,例如,如图8所示,跟踪器12a和跟踪器12f可以布置在壳体70中,而跟踪器12f的相对位置和方向相对于跟踪器12a是固定的。这里,假设跟踪器12f是第二类型的跟踪器12。则在此假定状态下,可以基于跟踪器12a、12b、12c、12d和12e的位置和方向来执行身体跟踪。此外,可以在执行身体跟踪的同时实时执行校准。
在上述情况下,例如,样本数据生成部分56生成包括测量时刻彼此对应的关于跟踪器12a的跟踪器数据和关于跟踪器12f的跟踪器数据的样本数据。这里,关于跟踪器12a的跟踪器数据使得跟踪器12a的位置和方向在第一坐标系中表示。此外,关于跟踪器12f的跟踪器数据使得跟踪器12f的位置和方向在第二坐标系中表示。
然后,参数估计部分58根据样本数据确定是否更新参数数据。
例如,在上述情况下,如果样本数据指示的位置与已经用于估计的先前样本数据指示的位置有一定距离,则参数估计部分58可以确定根据样本数据更新参数数据。例如,如果样本数据指示的位置与已经用于估计的先前样本数据指示的平均位置处于预定的或更长的距离,则参数估计部分58可以确定根据样本数据更新参数数据。
此外,例如,如果由样本数据指示的跟踪器12f的方向或多或少偏离由已经用于估计的先前样本数据指示的跟踪器12的方向,则参数估计部分58可以确定根据样本数据更新参数数据。例如,如果由样本数据指示的跟踪器12f的方向与由已经用于估计的先前数据指示的跟踪器12f的平均方向成预定的或更大的角度,则参数估计部分58可以根据样本数据确定更新参数数据。
然后,参数估计部分58可以根据用于确定更新参数数据的样本数据来估计循环中的值Rc、P0和Pc。随后,参数估计部分58可以将存储在参数数据存储部分60中的参数数据更新为指示估计值Rc、P0和Pc的参数数据。
上述处理使得能够在身体跟踪期间执行实时校准(即,在上述实例中,参数值的估计和参数数据的更新)。
此外,在本实施例中,可以以这样的方式执行操作,使得第二类型的跟踪器12的位置和方向被表示为相对于第一类型的跟踪器12的相对位置和方向。例如,在位置P1是原点的情况下,转换成第一坐标系中的表达式的位置P2的位置向量可以用作跟踪器12b的位置向量。此外,上述情况下,如果跟踪器12f相对于跟踪器12a的相对位置和方向不固定,如图8所示,则不能执行装运前校准。例如,在第一类型的跟踪器12的原点和第二类型的跟踪器12的原点可以根据用户的需要设置的情况下,不能执行装运前校准。即使在不能执行上述装运前校准的情况下,本实施例也使得用户能够以上述方式容易地执行校准。
应当注意,本发明不限于上述实施例。
例如,跟踪器12的跟踪方法不限于使用SLAM技术的上述方法和基于布置在跟踪器12周围的多个传感器的检测结果的上述方法。例如,跟踪器12可以包括各种传感器,例如相机、惯性传感器(IMU)、地磁传感器(方位传感器)、加速度传感器、运动传感器和GPS模块。然后,可以基于由包括在跟踪器12中的传感器所进行的测量的结果来识别跟踪器12的位置和方向。
此外,图4所示的部分或全部功能不必总是由娱乐装置14实现。例如,图4中描绘的一些或所有功能可以由跟踪器12的其中一个来实现。
此外,上述特定字符串和数值以及附图中的字符串和数值仅仅是说明性的而不是限制性的。

Claims (10)

1.一种跟踪器校准装置,包括:
第一跟踪器数据获取部分,其获取多条第一跟踪器数据,所述第一跟踪器数据指示第一跟踪器的位置,所述第一跟踪器的位置在校准期间被测量并且在第一坐标系中表示,当第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定时所述校准被执行;
第二跟踪器数据获取部分,其获取多条所述第二跟踪器数据,所述第二跟踪器数据指示所述第二跟踪器的位置和方向,所述第二跟踪器的位置和方向在所述校准期间被测量,并且在独立于所述第一坐标系的第二坐标系中表示;以及
估计部分,其基于所述多条第一跟踪器数据和所述多条第二跟踪器数据,估计用于将所述第二坐标系中表示的所述位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置。
2.根据权利要求1所述的跟踪器校准装置,还包括:
样本数据生成部分,其生成包括测量时刻彼此相关联的所述第一和第二跟踪器数据的多条样本数据,
其中,基于所述多条样本数据,所述估计部分估计用于将所述第二坐标系中表示的所述位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置。
3.根据权利要求2所述的跟踪器校准装置,
其中,所述样本数据生成部分根据以增加方向变化的方式选择的所述第一和第二跟踪器数据生成所述多条样本数据。
4.根据权利要求2或3所述的跟踪器校准装置,
其中,根据基于所述多条第一跟踪器数据所识别的所述第一跟踪器的速度、加速度和角速度中的至少一个的时间序列,以及基于所述多条第二跟踪器数据所识别的所述第二跟踪器的速度、加速度和角速度中的至少一个的时间序列,所述样本数据生成部分生成测量时刻彼此对应的所述多条样本数据。
5.根据权利要求4所述的跟踪器校准装置,
其中,根据所述第一跟踪器的速度、加速度和角速度中的至少一个的标准时间序列,以及基于所述多条第二跟踪器数据所识别的所述第二跟踪器的速度、加速度和角速度中的至少一个的标准时间序列,所述样本数据生成部分生成测量时刻彼此对应的所述多条样本数据。
6.根据权利要求1至5中任一权利要求所述的跟踪器校准装置,
其中,所述第一跟踪器和所述第二跟踪器被设置在壳体中,而所述第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定。
7.根据权利要求1至6中任一权利要求所述的跟踪器校准装置,
其中所述第一跟踪器和所述第二跟踪器是不同类型的跟踪器。
8.根据权利要求1至7中任一权利要求所述的跟踪器校准装置,
其中,在所述校准期间由所述估计部分估计了用于将所述第二坐标系中表示的所述位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置之后,所述第一跟踪器和所述第二跟踪器能够被单独使用,并且,
在单独使用所述第一跟踪器和所述第二跟踪器之后,在所述第二跟踪器相对于所述第一跟踪器的相对位置和方向被固定为不同于在上一次校准期间估计的相对位置和方向的状态下,在再次进行所述校准期间,所述估计部分估计所述第二跟踪器相对于所述第一跟踪器的相对位置,所述相对位置不同于在所述上一次校准期间估计的相对位置。
9.一种跟踪器校准方法,包括以下步骤:
获取多条第一跟踪器数据,所述第一跟踪器数据指示第一跟踪器的位置,所述第一跟踪器的位置在校准期间被测量并且在第一坐标系中表示,当第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定时执行所述校准;
获取多条第二跟踪器数据,所述第二跟踪器数据指示所述第二跟踪器的位置和方向,所述第二跟踪器的位置和方向在所述校准期间被测量并在独立于所述第一坐标系的第二坐标系中表示;以及
基于所述多条第一跟踪器数据和所述多条第二跟踪器数据,估计用于将所述第二坐标系中表示的位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置。
10.一种程序,使计算机执行以下过程:
获取多条第一跟踪器数据,所述第一跟踪器数据指示第一跟踪器的位置,所述第一跟踪器的位置在校准期间被测量并且在第一坐标系中表示,当第二跟踪器的相对位置和方向相对于所述第一跟踪器被固定时执行所述校准;
获取多条第二跟踪器数据,所述第二跟踪器数据指示所述第二跟踪器的位置和方向,所述第二跟踪器的位置和方向在所述校准期间被测量并在独立于所述第一坐标系的第二坐标系中表示;以及
基于所述多条第一跟踪器数据和所述多条第二跟踪器数据,估计用于将所述第二坐标系中表示的位置转换为所述第一坐标系中的表达式的参数值、以及所述第二跟踪器相对于所述第一跟踪器的相对位置。
CN201880098888.3A 2018-10-31 2018-10-31 跟踪器校准装置,跟踪器校准方法和程序 Active CN112888914B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/040530 WO2020090042A1 (ja) 2018-10-31 2018-10-31 トラッカーのキャリブレーション装置、トラッカーのキャリブレーション方法及びプログラム

Publications (2)

Publication Number Publication Date
CN112888914A true CN112888914A (zh) 2021-06-01
CN112888914B CN112888914B (zh) 2023-02-28

Family

ID=70463030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880098888.3A Active CN112888914B (zh) 2018-10-31 2018-10-31 跟踪器校准装置,跟踪器校准方法和程序

Country Status (5)

Country Link
US (1) US20220001272A1 (zh)
EP (1) EP3875898A4 (zh)
JP (1) JP6975347B2 (zh)
CN (1) CN112888914B (zh)
WO (1) WO2020090042A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11590402B2 (en) * 2018-05-31 2023-02-28 The Quick Board, Llc Automated physical training system

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1071369A1 (en) * 1998-04-17 2001-01-31 Massachusetts Institute Of Technology Motion tracking system
JP2002528168A (ja) * 1998-10-23 2002-09-03 バリアン・メディカル・システムズ・インコーポレイテッド 患者を位置決めする方法とシステム
CN1794010A (zh) * 2005-12-19 2006-06-28 北京威亚视讯科技有限公司 位置姿态跟踪系统
JP2007535373A (ja) * 2004-04-28 2007-12-06 キナメッド・インコーポレーテッド 手術中における解剖学的構造体の追跡を検証し補正する方法及び装置
JP2008507367A (ja) * 2004-07-23 2008-03-13 カリプソー メディカル テクノロジーズ インコーポレイテッド 患者内のターゲットを治療するための統合放射線治療システム及び方法
CN101789126A (zh) * 2010-01-26 2010-07-28 北京航空航天大学 基于体素的三维人体运动跟踪方法
US20110004224A1 (en) * 2008-03-13 2011-01-06 Daigneault Emmanuel Tracking cas system
CN102257830A (zh) * 2008-12-17 2011-11-23 索尼电脑娱乐公司 具有最少用户输入的跟踪系统校准
CN103392332A (zh) * 2011-02-28 2013-11-13 高通股份有限公司 测距与人体运动捕捉
JP2016101640A (ja) * 2014-11-28 2016-06-02 ファナック株式会社 工作機械及びロボットを備えた協働システム
CN107004279A (zh) * 2014-12-10 2017-08-01 微软技术许可有限责任公司 自然用户界面相机校准
CN107106907A (zh) * 2014-12-31 2017-08-29 索尼互动娱乐股份有限公司 用于确定用户手指位置的信号生成和检测器系统以及方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9579161B2 (en) * 2008-05-06 2017-02-28 Medtronic Navigation, Inc. Method and apparatus for tracking a patient
US8685093B2 (en) * 2009-01-23 2014-04-01 Warsaw Orthopedic, Inc. Methods and systems for diagnosing, treating, or tracking spinal disorders
EP3163422B1 (en) * 2014-06-30 2020-02-12 Sony Corporation Information processing device, information processing method, computer program, and image processing system

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1308505A (zh) * 1998-04-17 2001-08-15 麻省理工学院 运动跟踪系统
EP1071369A1 (en) * 1998-04-17 2001-01-31 Massachusetts Institute Of Technology Motion tracking system
JP2002528168A (ja) * 1998-10-23 2002-09-03 バリアン・メディカル・システムズ・インコーポレイテッド 患者を位置決めする方法とシステム
JP2007535373A (ja) * 2004-04-28 2007-12-06 キナメッド・インコーポレーテッド 手術中における解剖学的構造体の追跡を検証し補正する方法及び装置
JP2008507367A (ja) * 2004-07-23 2008-03-13 カリプソー メディカル テクノロジーズ インコーポレイテッド 患者内のターゲットを治療するための統合放射線治療システム及び方法
CN1794010A (zh) * 2005-12-19 2006-06-28 北京威亚视讯科技有限公司 位置姿态跟踪系统
US20110004224A1 (en) * 2008-03-13 2011-01-06 Daigneault Emmanuel Tracking cas system
CN102257830A (zh) * 2008-12-17 2011-11-23 索尼电脑娱乐公司 具有最少用户输入的跟踪系统校准
CN101789126A (zh) * 2010-01-26 2010-07-28 北京航空航天大学 基于体素的三维人体运动跟踪方法
CN103392332A (zh) * 2011-02-28 2013-11-13 高通股份有限公司 测距与人体运动捕捉
JP2016101640A (ja) * 2014-11-28 2016-06-02 ファナック株式会社 工作機械及びロボットを備えた協働システム
CN107004279A (zh) * 2014-12-10 2017-08-01 微软技术许可有限责任公司 自然用户界面相机校准
CN107106907A (zh) * 2014-12-31 2017-08-29 索尼互动娱乐股份有限公司 用于确定用户手指位置的信号生成和检测器系统以及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANIEL PUSTKA ET AL.: "Spatial Relationship Patterns:Elements of Reusable Tracking and Calibration Systems", 《MIXED AND AUGMENTED REALITY》 *

Also Published As

Publication number Publication date
JP6975347B2 (ja) 2021-12-01
US20220001272A1 (en) 2022-01-06
CN112888914B (zh) 2023-02-28
WO2020090042A1 (ja) 2020-05-07
EP3875898A1 (en) 2021-09-08
JPWO2020090042A1 (ja) 2021-06-10
EP3875898A4 (en) 2022-07-06

Similar Documents

Publication Publication Date Title
US11726549B2 (en) Program, information processor, and information processing method
US11605192B2 (en) Skeleton model update apparatus, skeleton model update method, and program
EP3176755A1 (en) Information processing device, information processing method, and program
EP3176757A1 (en) Information processing device, information processing method, and program
EP3889737A1 (en) Information processing device, information processing method, and program
KR20160096473A (ko) 동작 평가 시스템 및 방법
US11763464B2 (en) Estimation apparatus, learning apparatus, estimation method, learning method, and program
US10830572B2 (en) Hemisphere ambiguity correction in electromagnetic position tracking systems
CN112888914B (zh) 跟踪器校准装置,跟踪器校准方法和程序
US11589778B2 (en) Body size estimation apparatus, body size estimation method, and program
US11660526B2 (en) Estimation apparatus, estimation method, and program
US20210390750A1 (en) Skeleton model update apparatus, skeleton model update method, and program
US11232291B2 (en) Posture estimation system, posture estimation apparatus, error correction method, and error correction program
CN110211239B (zh) 基于无标记识别的增强现实方法、装置、设备及介质
JP7038798B2 (ja) 位置推定装置、位置推定方法及びプログラム
US20230112409A1 (en) Motion determination apparatus, learning apparatus, motion determination method, learning method, and program
KR102260754B1 (ko) 증강현실용 가이드 도구의 자세 추정을 위한 캘리브레이션 기구 및 이를 이용한 캘리브레이션 방법
CN118643265A (zh) 一种非惯性系动力学建模的惯性人体动作捕捉方法及装置
CN118570250A (zh) 一种用于惯性人体动作捕捉的imu数据合成方法及装置
JP2003156317A (ja) カメラパラメータ推定方法、装置、プログラム、および記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant