JP2024018887A - Intelligent terminal, handheld device, virtual system and intelligent terminal spatial positioning method - Google Patents

Intelligent terminal, handheld device, virtual system and intelligent terminal spatial positioning method Download PDF

Info

Publication number
JP2024018887A
JP2024018887A JP2023019232A JP2023019232A JP2024018887A JP 2024018887 A JP2024018887 A JP 2024018887A JP 2023019232 A JP2023019232 A JP 2023019232A JP 2023019232 A JP2023019232 A JP 2023019232A JP 2024018887 A JP2024018887 A JP 2024018887A
Authority
JP
Japan
Prior art keywords
intelligent terminal
handle
handheld device
inertial sensor
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023019232A
Other languages
Japanese (ja)
Inventor
志彬 翁
克 周
磊 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pimax Technology (shanghai) Co Ltd
Original Assignee
Pimax Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pimax Technology (shanghai) Co Ltd filed Critical Pimax Technology (shanghai) Co Ltd
Publication of JP2024018887A publication Critical patent/JP2024018887A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】インテリジェント端末、ハンドヘルドデバイス(中国語:掌机)、仮想システム及びインテリジェント端末の空間位置決め方法を提供する。【解決手段】仮想頭部装着ディスプレイ機器に着脱可能に接続するインテリジェント端末において、インテリジェント端末の機能を仮想頭部装着ディスプレイ機能からハンドヘルドデバイス機能に切り替える主制御チップは、インテリジェント端末が仮想頭部装着ディスプレイ機器に取り付けられると、インテリジェント端末の機能をハンドヘルドデバイス機能から仮想頭部装着ディスプレイ機能に切り替える。主制御チップはまた、第1撮像装置によって撮影されたインテリジェント端末の環境情報と、第1慣性センサによって検出されたインテリジェント端末のIMUデータとに基づいて、インテリジェント端末の空間位置決め情報を確定し、インテリジェント端末の正確な位置決めを実現する。【選択図】図3The present invention provides an intelligent terminal, a handheld device (Chinese: palm desk), a virtual system, and a method for spatial positioning of an intelligent terminal. In an intelligent terminal that is detachably connected to a virtual head mounted display device, a main control chip that switches the function of the intelligent terminal from the virtual head mounted display function to the handheld device function is configured to enable the intelligent terminal to display the virtual head mounted display device. When attached to a device, it switches the functionality of the intelligent terminal from handheld device functionality to virtual head-mounted display functionality. The main control chip also determines the spatial positioning information of the intelligent terminal based on the environmental information of the intelligent terminal photographed by the first imaging device and the IMU data of the intelligent terminal detected by the first inertial sensor, and Achieve accurate positioning of the terminal. [Selection diagram] Figure 3

Description

本発明は、モバイル機器技術の分野に関し、具体的には、インテリジェント端末、ハンドヘルドデバイス(中国語:掌机)、仮想システム及びインテリジェント端末の空間位置決め方法に関する。 The present invention relates to the field of mobile device technology, and specifically relates to an intelligent terminal, a handheld device (Chinese: palm desk), a virtual system and a method for spatial positioning of an intelligent terminal.

現在、VRボックスと移動端末からなる新型の仮想現実(Virtual Reality、VR)頭部装着ディスプレイ機器が市場に多数登場している。このような新型のVR頭部装着ディスプレイ機器の性能は、主に移動端末の性能によって決まり、その性能は従来のコンピュータ-VR頭部装着ディスプレイ機器、又はVRオールインワンに比べてはるかに劣っている。コンピュータ-VR頭部装着ディスプレイ機器、又はVRオールインワンのディスプレイ装置とVR仮想頭部装着ディスプレイ機器は、一般に不可分であり、セットでしか使えないため、利便性が限られている。 Currently, many new types of virtual reality (VR) head-mounted display devices consisting of VR boxes and mobile terminals have appeared on the market. The performance of such new VR head-mounted display equipment is mainly determined by the performance of the mobile terminal, which is much inferior to the traditional computer-VR head-mounted display equipment or VR all-in-one. Computer-VR head-mounted display devices, or VR all-in-one display devices and VR virtual head-mounted display devices, are generally inseparable and can only be used as a set, which limits their convenience.

一方、ハンドヘルドデバイスなどのゲーム機用携帯機器では、現在、ホストとハンドルを備え、ゲーム体験のためにハンドルを通じて命令入力を実現する製品があるが、このときのハンドヘルドデバイスには、仮想没入感を体験する機能がない。 On the other hand, there are currently some portable devices for game consoles, such as handheld devices, that are equipped with a host and a handle, and can realize command input through the handle for a gaming experience. There is no function to experience it.

そこで、ユーザーが1つの製品を購入するだけで2つの異なる製品機能を体験できるという目的を満たすために、仮想ボックスの分離可能な特徴を有しハンドヘルドデバイスの機能を体現できる新型の複合式インテリジェント端末機器を提供する必要がある。 Therefore, in order to meet the purpose of allowing users to experience two different product functions by purchasing one product, we have developed a new type of combined intelligent terminal that has the separable characteristics of a virtual box and can embody the functions of a handheld device. Equipment must be provided.

また、従来技術では、移動端末の動作モードを変更した場合、例えば、ハンドヘルドデバイス機能から仮想頭部装着ディスプレイ機能に切り替えた場合、移動端末、制御ハンドルに対して正確な再位置決めを実現することができない。 Also, in the prior art, it is difficult to achieve accurate repositioning of the mobile terminal relative to the control handle when changing the operating mode of the mobile terminal, for example, switching from handheld device function to virtual head-mounted display function. Can not.

これに鑑みて、本発明は、インテリジェント端末、ハンドヘルドデバイス、仮想システム及びインテリジェント端末の空間位置決め方法を提供しており、1つの移動端末だけで仮想及びハンドヘルドデバイスの2種類の製品の機能を体験できず、移動端末の動作モードを変更した場合、移動端末の空間に正確に位置決めできないという従来技術における技術的問題を解決する。 In view of this, the present invention provides an intelligent terminal, a handheld device, a virtual system and a method for spatial positioning of an intelligent terminal, so that only one mobile terminal can experience the functions of two types of products, virtual and handheld devices. First, it solves the technical problem in the prior art that the mobile terminal cannot be accurately positioned in space when the operating mode of the mobile terminal is changed.

本発明の一態様によれば、本発明はインテリジェント端末を提供する。このインテリジェント端末は、仮想頭部装着ディスプレイ機器又は手持ち機器に着脱可能に取り付けることができるインテリジェント端末本体と、前記インテリジェント端末本体の第1側面に配置された表示スクリーンと、前記インテリジェント端末本体内に配置され、仮想頭部装着ディスプレイ機能とハンドヘルドデバイス機能との間の前記インテリジェント端末の切り替えを制御するための機能切り替えモジュールと、前記インテリジェント端末本体内に配置され、前記機能切り替えモジュールに通信接続された主制御チップと、前記インテリジェント端末本体の第2側面上に配置された第1撮像装置であって、前記第1側面と前記第2側面は対向する面である第1撮像装置と、前記インテリジェント端末本体に配置され、前記インテリジェント端末本体のIMUデータを検出するための第1慣性センサと、を含み、前記第1撮像装置及び前記第1慣性センサはそれぞれ前記主制御チップに通信接続される。 According to one aspect of the invention, the invention provides an intelligent terminal. The intelligent terminal includes an intelligent terminal body that can be detachably attached to a virtual head-mounted display device or a hand-held device, a display screen disposed on a first side of the intelligent terminal body, and a display screen disposed within the intelligent terminal body. a function switching module for controlling switching of the intelligent terminal between a virtual head-mounted display function and a handheld device function; a control chip; a first imaging device disposed on a second side surface of the intelligent terminal main body, the first imaging device and the second side surface being opposing surfaces; and the intelligent terminal main body. a first inertial sensor disposed in the intelligent terminal body for detecting IMU data of the intelligent terminal main body, and the first imaging device and the first inertial sensor are each communicatively connected to the main control chip.

本発明の一実施例では、前記インテリジェント端末は、前記インテリジェント端末本体内に配置された輝度コントローラーをさらに含み、前記輝度コントローラーは、前記主制御チップ及び前記表示スクリーンにそれぞれ通信接続され、前記インテリジェント端末が前記ハンドヘルドデバイス機能から前記仮想頭部装着ディスプレイ機能に切り替えられると、前記輝度コントローラーは、前記ディスプレイの表示輝度を低下させ、前記インテリジェント端末が前記仮想頭部装着ディスプレイ機能から前記ハンドヘルドデバイス機能に切り替えられると、前記輝度コントローラーは、前記ディスプレイの表示輝度を向上させる。 In one embodiment of the present invention, the intelligent terminal further includes a brightness controller disposed within the intelligent terminal body, the brightness controller being communicatively connected to the main control chip and the display screen, respectively; is switched from the handheld device function to the virtual head mounted display function, the brightness controller reduces the display brightness of the display, and the intelligent terminal switches from the virtual head mounted display function to the handheld device function. When the brightness controller is turned on, the brightness controller increases the display brightness of the display.

本発明の一実施例では、前記インテリジェント端末は、前記インテリジェント端末本体内に配置された画像プロセッサをさらに含み、前記画像プロセッサは、前記主制御チップに通信接続され、前記画像プロセッサは、前記表示スクリーン上に表示された画像情報に対して非同期スペースワープ、非同期タイムワープ処理及び画像レンダリング処理を行うために使用される。 In one embodiment of the invention, the intelligent terminal further includes an image processor disposed within the intelligent terminal body, the image processor is communicatively connected to the main control chip, and the image processor is connected to the display screen. It is used to perform asynchronous space warp processing, asynchronous time warp processing, and image rendering processing on the image information displayed above.

本発明の一実施例では、前記インテリジェント端末は、前記インテリジェント端末本体の前記第1側面上に配置された第2撮像装置をさらに含み、前記第2撮像装置は、前記主制御チップに通信接続される。 In one embodiment of the present invention, the intelligent terminal further includes a second imaging device disposed on the first side of the intelligent terminal body, the second imaging device being communicatively connected to the main control chip. Ru.

本発明の一実施例では、前記第1撮像装置の数は4つであり、4つの前記第1撮像装置は2組の撮像装置組に分けられ、各組の撮像装置組における2つの前記第1撮像装置は、前記インテリジェント端末本体の中心について対称である。 In one embodiment of the present invention, the number of the first imaging devices is four, and the four first imaging devices are divided into two imaging device sets, and the two first imaging devices in each imaging device set are divided into two imaging device groups. 1 imaging device is symmetrical about the center of the intelligent terminal body.

本発明の第2態様として、本発明はまた、ハンドヘルドデバイスを提供する。このハンドヘルドデバイスは、上記のインテリジェント端末と、前記インテリジェント端末に接続されたハンドヘルドデバイスハンドルと、を含み、前記ハンドヘルドデバイスハンドルには、第1赤外線センサ及び第2慣性センサが設けられ、前記第2慣性センサは、前記ハンドヘルドデバイスハンドルのIMUデータを検出するために使用され、前記第2慣性センサは、前記インテリジェント端末における前記主制御チップに通信接続される。 As a second aspect of the invention, the invention also provides a handheld device. This handheld device includes the above-mentioned intelligent terminal and a handheld device handle connected to the intelligent terminal, the handheld device handle is provided with a first infrared sensor and a second inertial sensor, and the handheld device handle is provided with a first infrared sensor and a second inertial sensor, and the second inertial sensor A sensor is used to detect IMU data of the handheld device handle, and the second inertial sensor is communicatively connected to the main control chip in the intelligent terminal.

本発明の一実施例では、前記主制御チップは、第1制御ユニットと、第1計算ユニットと、を含み、前記第1制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置及び前記第1慣性センサにそれぞれ通信接続され、前記第1制御ユニットは、前記第1撮像装置を制御して前記インテリジェント端末の位置する周囲環境の第1画像を撮影し、前記第1慣性センサを制御して前記インテリジェント端末のIMUデータを検出するために使用され、前記第1計算ユニットは、前記第1制御ユニット、前記第1撮像装置、前記第1赤外線センサ、前記第1慣性センサ及び前記第2慣性センサにそれぞれ通信接続され、前記第1計算ユニットは、前記第1画像及び前記インテリジェント端末本体のIMUデータを取得し、前記インテリジェント端末本体のIMUデータ及び前記第1画像を計算して、前記インテリジェント端末の空間位置決め情報を生成するために使用される。 In one embodiment of the present invention, the main control chip includes a first control unit and a first calculation unit, and the first control unit includes the function switching module, the first imaging device, and the first calculation unit. each of the first control unit is communicatively connected to the inertial sensors, and the first control unit controls the first imaging device to capture a first image of the surrounding environment in which the intelligent terminal is located; is used to detect IMU data of an intelligent terminal, and the first calculation unit is connected to the first control unit, the first imaging device, the first infrared sensor, the first inertial sensor and the second inertial sensor. The first calculation unit obtains the first image and the IMU data of the intelligent terminal body, calculates the IMU data of the intelligent terminal body and the first image, and calculates the space of the intelligent terminal. Used to generate positioning information.

本発明の一実施例では、前記主制御チップは、第2制御ユニットと、第2計算ユニットと、をさらに含み、前記第2制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置及び前記第2慣性センサにそれぞれ通信接続され、前記第2制御ユニットは、前記機能切り替えモジュールが前記インテリジェント端末をハンドヘルドデバイス機能に切り替えたとき、前記第1撮像装置を制御して前記ハンドヘルドデバイスハンドルに位置する第1赤外線センサを撮影し、前記ハンドヘルドデバイスハンドルに位置する第2慣性センサを制御して前記ハンドヘルドデバイスハンドルのIMUデータを検出するために使用され、前記第2計算ユニットは、前記第1計算ユニット、前記第2制御ユニット、前記第1撮像装置及び前記第2慣性センサにそれぞれ通信接続され、前記第2計算ユニットは、前記第1撮像装置によって伝送された前記第1赤外線センサの第1光点画像、及び前記第2慣性センサによって伝送された前記ハンドヘルドデバイスハンドルのIMUデータを取得し、前記第1光点画像、前記ハンドヘルドデバイスハンドルのIMUデータ及び前記インテリジェント端末の空間位置決め情報を計算して、前記ハンドヘルドデバイスハンドルの空間位置決め情報を生成するために使用される。 In one embodiment of the present invention, the main control chip further includes a second control unit and a second calculation unit, and the second control unit includes the function switching module, the first imaging device, and the second calculation unit. the second control unit is communicatively connected to two inertial sensors, respectively, and the second control unit controls the first imaging device to control the first imaging device located on the handheld device handle when the function switching module switches the intelligent terminal to a handheld device function. 1 infrared sensor and controlling a second inertial sensor located on the handheld device handle to detect IMU data of the handheld device handle, the second calculation unit is used to capture the IMU data of the handheld device handle; The second control unit, the first imaging device and the second inertial sensor are each communicatively connected, and the second calculation unit calculates a first light spot image of the first infrared sensor transmitted by the first imaging device. , and obtaining the IMU data of the handheld device handle transmitted by the second inertial sensor, and calculating the first light point image, the IMU data of the handheld device handle and the spatial positioning information of the intelligent terminal, and Used to generate spatial positioning information for the handheld device handle.

本発明の一実施例では、前記ハンドヘルドデバイスは、コネクタと、多機能押しボタンと、多機能プロセッサと、をさらに含み、前記コネクタは、前記ハンドヘルドデバイスハンドル及び前記インテリジェント端末にそれぞれ通信接続され、前記多機能押しボタンは、前記ハンドヘルドデバイスハンドルに配置され、前記多機能プロセッサは、前記多機能押しボタン及び前記インテリジェント端末の主制御チップにそれぞれ接続され、前記多機能プロセッサは、ユーザーが前記多機能押しボタンを介して入力した操作命令を受信し、前記操作命令を前記操作命令に前記主制御チップに送信するために使用される。 In one embodiment of the invention, the handheld device further includes a connector, a multifunction pushbutton, and a multifunction processor, the connector being communicatively connected to the handheld device handle and the intelligent terminal, respectively; A multi-function push button is disposed on the handheld device handle, the multi-function processor is connected to the multi-function push button and the main control chip of the intelligent terminal, respectively, and the multi-function processor is configured to It is used to receive the operation command input through the button and send the operation command to the main control chip.

本発明の第3態様として、本発明はまた、仮想システムを提供する。この仮想システムは、上記のインテリジェント端末と、仮想頭部装着ディスプレイ機器であって、前記インテリジェント端末が前記仮想頭部装着ディスプレイ機器本体に着脱可能に取り付けられる仮想頭部装着ディスプレイ機器と、仮想頭部装着ディスプレイハンドルと、を含み、前記仮想頭部装着ディスプレイハンドルは、制御ハンドルと、前記制御ハンドルに配置された第2赤外線センサと、前記制御ハンドルに配置され、前記制御ハンドルのIMUデータを測定するための第3慣性センサと、を含み、前記制御ハンドル及び前記第3慣性センサはそれぞれ前記主制御チップに通信接続される。 As a third aspect of the invention, the invention also provides a virtual system. This virtual system includes the above-mentioned intelligent terminal, a virtual head-mounted display device in which the intelligent terminal is removably attached to the main body of the virtual head-mounted display device, and a mounted display handle, the virtual head mounted display handle comprising: a control handle; a second infrared sensor disposed on the control handle; and a second infrared sensor disposed on the control handle to measure IMU data of the control handle. a third inertial sensor for the control handle, the control handle and the third inertial sensor each being communicatively connected to the main control chip.

本発明の一実施例では、前記仮想頭部装着ディスプレイハンドルは、ハンドルケーシングをさらに含み、前記ハンドルケーシングは、環形部及び把握部を含み、前記把握部の中央には、前記制御ハンドルを収容し固定するために凹部が設けられる。 In one embodiment of the invention, the virtual head-mounted display handle further includes a handle casing, the handle casing including an annular portion and a grasping portion, and a center of the grasping portion housing the control handle. A recess is provided for fixing.

本発明の一実施例では、前記主制御チップは、第3制御ユニットと第3計算ユニットを含み、前記第3制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置及び前記第1慣性センサにそれぞれ通信接続され、前記第3制御ユニットは、前記第1撮像装置を制御して前記インテリジェント端末の位置する周囲環境の第1画像を撮影し、前記第1慣性センサを制御して前記インテリジェント端末のIMUデータを検出するために使用され、前記第3計算ユニットは、前記第3制御ユニット、前記第1撮像装置、前記第1赤外線センサ及び前記第1慣性センサにそれぞれ通信接続され、前記第3計算ユニットは、前記第1画像及び前記インテリジェント端末本体のIMUデータを取得し、前記インテリジェント端末本体のIMUデータ及び前記第1画像を計算して、前記インテリジェント端末の空間位置決め情報を生成するために使用される。 In one embodiment of the present invention, the main control chip includes a third control unit and a third calculation unit, and the third control unit is configured to control the function switching module, the first imaging device, and the first inertial sensor. The third control unit controls the first imaging device to take a first image of the surrounding environment in which the intelligent terminal is located, and controls the first inertial sensor to take a first image of the surrounding environment in which the intelligent terminal is located. the third calculation unit is communicatively connected to the third control unit, the first imaging device, the first infrared sensor and the first inertial sensor, and the third calculation unit is used to detect IMU data; The unit is used to obtain the first image and the IMU data of the intelligent terminal body, and calculate the IMU data of the intelligent terminal body and the first image to generate spatial positioning information of the intelligent terminal. Ru.

本発明の一実施例では、前記主制御チップは、第4制御ユニットと第4計算ユニットをさらに含み、前記第4制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置、前記第2赤外線センサ及び前記第3慣性センサにそれぞれ通信接続され、前記第4制御ユニットは、前記機能切り替えモジュールが前記インテリジェント端末を仮想頭部装着ディスプレイ機能に切り替えたとき、前記第1撮像装置を制御して前記仮想操作ハンドルに位置する第2赤外線センサを撮影し、前記仮想操作ハンドルに位置する第3慣性センサを制御して前記仮想操作ハンドルのIMUデータを検出するために使用され、前記第4計算ユニットは、前記第3計算ユニット、前記第1撮像装置及び前記第3慣性センサにそれぞれ通信接続され、前記第4計算ユニットは、前記第1撮像装置によって伝送された前記第2赤外線センサの第2光点画像、及び第3慣性センサによって伝送された前記仮想操作ハンドルのIMUデータを取得し、前記インテリジェント端末の空間位置決め情報、前記第2光点画像及び前記仮想操作ハンドルのIMUデータを計算して、前記仮想操作ハンドルの空間位置決め情報を生成するために使用される。 In one embodiment of the present invention, the main control chip further includes a fourth control unit and a fourth calculation unit, and the fourth control unit includes the function switching module, the first imaging device, and the second infrared sensor. and the third inertial sensor, respectively, and the fourth control unit controls the first imaging device to display the virtual head-mounted display when the function switching module switches the intelligent terminal to a virtual head-mounted display function. The fourth calculation unit is used to photograph a second infrared sensor located on the operating handle and control a third inertial sensor located on the virtual operating handle to detect IMU data of the virtual operating handle; The third computing unit is communicatively connected to the first imaging device and the third inertial sensor, respectively, and the fourth computing unit is configured to calculate a second light spot image of the second infrared sensor transmitted by the first imaging device. , and obtain the IMU data of the virtual operating handle transmitted by a third inertial sensor, calculate the spatial positioning information of the intelligent terminal, the second light spot image and the IMU data of the virtual operating handle, and calculate the IMU data of the virtual operating handle transmitted by the third inertial sensor. Used to generate spatial positioning information for the operating handle.

本発明の第4態様として、本発明はまた、上記のインテリジェント端末を位置決めするためのインテリジェント端末の空間位置決め方法を提供する。前記インテリジェント端末の空間位置決め方法は、前記主制御チップが、前記インテリジェント端末に位置する前記第1撮像装置を制御して前記インテリジェント端末の位置する周囲環境の第1画像を撮影し、前記第1慣性センサを制御して前記インテリジェント端末のIMUデータを検出するステップと、前記主制御チップが、前記第1撮像装置によって撮影された前記インテリジェント端末の位置する周囲環境の第1画像を取得するステップと、前記主制御チップが、前記第1慣性センサによって検出された前記インテリジェント端末本体のIMUデータを取得するステップと、前記主制御チップが、前記インテリジェント端末本体のIMUデータ及び前記第1画像を計算して、前記インテリジェント端末の空間位置決め情報を生成するステップと、を含む。 As a fourth aspect of the invention, the invention also provides an intelligent terminal spatial positioning method for locating the above intelligent terminal. In the spatial positioning method of the intelligent terminal, the main control chip controls the first imaging device located in the intelligent terminal to take a first image of the surrounding environment in which the intelligent terminal is located; controlling a sensor to detect IMU data of the intelligent terminal; and causing the main control chip to acquire a first image of the surrounding environment in which the intelligent terminal is located, taken by the first imaging device; the main control chip acquiring IMU data of the intelligent terminal body detected by the first inertial sensor; and the main control chip calculating the IMU data of the intelligent terminal body and the first image. , generating spatial positioning information for the intelligent terminal.

本発明の一実施例では、前記インテリジェント端末がハンドヘルドデバイスハンドルに通信接続された場合、前記インテリジェント端末の空間位置決め方法は、前記機能切り替えモジュールが前記インテリジェント端末をハンドヘルドデバイス機能に切り替えるステップと、前記主制御チップが、前記第1撮像装置を制御して前記ハンドヘルドデバイスハンドルに位置する第1赤外線センサを撮影し、前記ハンドヘルドデバイスハンドルに位置する第2慣性センサを制御して前記ハンドヘルドデバイスハンドルのIMUデータを検出するステップと、前記主制御チップが、前記第1撮像装置によって伝送された前記第1赤外線センサの第1光点画像、及び前記第2慣性センサによって伝送された前記ハンドヘルドデバイスハンドルのIMUデータを取得し、前記インテリジェント端末の空間位置決め情報、前記第1光点画像及び前記ハンドヘルドデバイスハンドルのIMUデータを計算して、前記ハンドヘルドデバイスハンドルの空間位置決め情報を生成するステップと、さらに含む。 In one embodiment of the invention, when the intelligent terminal is communicatively connected to a handheld device handle, the method for spatially locating the intelligent terminal includes the steps of: the function switching module switching the intelligent terminal to a handheld device function; A control chip controls the first imaging device to image a first infrared sensor located on the handheld device handle, and controls a second inertial sensor located on the handheld device handle to capture IMU data of the handheld device handle. detecting a first light spot image of the first infrared sensor transmitted by the first imaging device and IMU data of the handheld device handle transmitted by the second inertial sensor; and calculating spatial positioning information of the intelligent terminal, the first light spot image, and IMU data of the handheld device handle to generate spatial positioning information of the handheld device handle.

本発明の一実施例では、前記インテリジェント端末が仮想頭部装着ディスプレイ機器に取り付けられ、前記インテリジェント端末が仮想操作ハンドルに通信接続された場合、前記インテリジェント端末の空間位置決め方法は、
前記機能切り替えモジュールが、前記インテリジェント端末を仮想頭部装着ディスプレイ機能に切り替えるステップと、前記制御チップが、前記第1撮像装置を制御して前記仮想操作ハンドルに位置する第2赤外線センサを撮影し、前記仮想操作ハンドルに位置する第3慣性センサを制御して前記仮想操作ハンドルのIMUデータを検出するステップと、前記主制御チップが、前記第1撮像装置によって伝送された前記第2赤外線センサの第2光点画像、及び第2慣性センサによって伝送された前記仮想操作ハンドルのIMUデータを取得し、前記インテリジェント端末の空間位置決め情報、前記第2光点画像及び前記仮想操作ハンドルのIMUデータを計算して、前記仮想操作ハンドルの空間位置決め情報を生成するステップと、をさらに含む。
In one embodiment of the present invention, when the intelligent terminal is attached to a virtual head-mounted display device, and the intelligent terminal is communicatively connected to a virtual operating handle, the spatial positioning method of the intelligent terminal comprises:
the function switching module switching the intelligent terminal to a virtual head-mounted display function; the control chip controlling the first imaging device to image a second infrared sensor located on the virtual operating handle; controlling a third inertial sensor located on the virtual operating handle to detect IMU data of the virtual operating handle; obtaining two light spot images and the IMU data of the virtual operating handle transmitted by a second inertial sensor, and calculating spatial positioning information of the intelligent terminal, the second light spot image and the IMU data of the virtual operating handle; and generating spatial positioning information of the virtual operating handle.

本発明によって提供されるインテリジェント端末は、仮想頭部装着ディスプレイ機器に着脱可能に接続することができる。即ち、仮想システムを分離式仮想システムにすることができる。即ち、インテリジェント端末と仮想頭部装着ディスプレイ機器は分離可能に設置される。インテリジェント端末が仮想頭部装着ディスプレイ機器から分離されると、インテリジェント端末は、ハンドヘルドデバイスハンドルと通信接続を確立することができ、インテリジェント端末における主制御チップは、インテリジェント端末の機能を仮想頭部装着ディスプレイ機能からハンドヘルドデバイス機能に切り替え、それにより、インテリジェント端末とハンドヘルドデバイスハンドルは、ハンドヘルドデバイスを構成する。インテリジェント端末が仮想頭部装着ディスプレイ機器に取り付けられると、インテリジェント端末における主制御チップは、インテリジェント端末の機能をハンドヘルドデバイス機能から仮想頭部装着ディスプレイ機能に切り替え、それにより、インテリジェント端末、仮想ハンドヘルドデバイス及び仮想頭部装着ディスプレイ機器は仮想システムを構成する。その結果、インテリジェント端末は2つの機能を持つことができ、ユーザーは、1つのインテリジェント端末を通じて仮想システム及びハンドヘルドデバイスの2種類の製品の機能を体験することができる。また、インテリジェント端末には第1慣性センサ及び第1撮像装置が設けられ、主制御チップは、第1撮像装置によって撮影されたインテリジェント端末の環境情報、及び第1慣性センサによって検出されたインテリジェント端末のIMUデータに基づいて、インテリジェント端末の空間位置決め情報、即ち、6DOFデータを確定することができ、それにより、インテリジェント端末の正確な位置決めが実現される。 The intelligent terminal provided by the present invention can be removably connected to a virtual head-mounted display device. That is, the virtual system can be made into a separate virtual system. That is, the intelligent terminal and the virtual head-mounted display device are installed so that they can be separated. When the intelligent terminal is separated from the virtual head-mounted display equipment, the intelligent terminal can establish a communication connection with the handheld device handle, and the main control chip in the intelligent terminal can transfer the functions of the intelligent terminal to the virtual head-mounted display. Switch from the function to the handheld device function, whereby the intelligent terminal and the handheld device handle constitute a handheld device. When the intelligent terminal is attached to the virtual head-mounted display device, the main control chip in the intelligent terminal switches the function of the intelligent terminal from the hand-held device function to the virtual head-mounted display function, so that the intelligent terminal, the virtual hand-held device and The virtual head mounted display device constitutes a virtual system. As a result, the intelligent terminal can have dual functions, and the user can experience the functions of two types of products, the virtual system and the handheld device, through one intelligent terminal. In addition, the intelligent terminal is provided with a first inertial sensor and a first imaging device, and the main control chip receives environmental information of the intelligent terminal photographed by the first imaging device and information of the intelligent terminal detected by the first inertial sensor. Based on the IMU data, the spatial positioning information of the intelligent terminal, ie 6DOF data, can be determined, thereby realizing accurate positioning of the intelligent terminal.

図面を参照しながら、本発明の実施例をより詳細に説明することによって、本発明の上記及び他の目的、特徴及び利点は、より明らかになる。図面は、本発明の実施例を更に理解させ、本明細書の一部を構成し、本発明の実施例と共に本発明を説明するためのものであり、本発明を制限するものではない。図面では、同じ参照番号は、通常、同じの部品又はステップを表す。
本発明の一実施例によって提供されるインテリジェント端末の正面図を示す。 本発明の一実施例によって提供されるインテリジェント端末の背面図を示す。 本発明の一実施例によって提供されるインテリジェント端末の動作原理図を示す。 本発明の別の実施例によって提供されるインテリジェント端末の動作原理図を示す。 本発明の別の実施例によって提供されるインテリジェント端末の動作原理図を示す。 本発明の一実施例によって提供されるハンドヘルドデバイスの動作原理図を示す。 本発明の別の実施例によって提供されるハンドヘルドデバイスの動作原理図を示す。 図7に示されるハンドヘルドデバイスのインテリジェント端末の空間位置決め方法のフローチャートを示す。 本発明の別の実施例によって提供されるハンドヘルドデバイスの動作原理図を示す。 図9に示されるハンドヘルドデバイスのインテリジェント端末の空間位置決め方法のフローチャートを示す。 本発明の一実施例によって提供される仮想システムの動作原理図を示す。 本発明の別の実施例によって提供される仮想システムの動作原理図を示す。 図12に示される仮想システムのインテリジェント端末の空間位置決め方法のフローチャートを示す。 本発明の別の実施例によって提供される仮想システムの動作原理図を示す。 図14に示される仮想システムのインテリジェント端末の空間位置決め方法のフローチャートを示す。 本発明の別の実施例によって提供される仮想操作ハンドルの構造模式図を示す。 本発明の一実施例によって提供される電子機器の動作原理図を示す。
The above and other objects, features and advantages of the present invention will become more apparent by describing embodiments of the present invention in more detail with reference to the drawings. The drawings provide a further understanding of the embodiments of the invention, constitute a part of this specification, and together with the embodiments of the invention are intended to explain the invention, but are not intended to limit the invention. In the drawings, like reference numbers usually represent like parts or steps.
1 shows a front view of an intelligent terminal provided by an embodiment of the present invention; FIG. Figure 3 shows a rear view of an intelligent terminal provided by an embodiment of the present invention. FIG. 3 shows an operation principle diagram of an intelligent terminal provided by an embodiment of the present invention. FIG. 6 shows a working principle diagram of an intelligent terminal provided by another embodiment of the present invention. FIG. 6 shows a working principle diagram of an intelligent terminal provided by another embodiment of the present invention. FIG. 3 shows an operational principle diagram of a handheld device provided by an embodiment of the present invention. FIG. 6 shows a working principle diagram of a handheld device provided by another embodiment of the present invention. 8 shows a flowchart of a method for spatial positioning of an intelligent terminal of a handheld device shown in FIG. 7; FIG. 6 shows a working principle diagram of a handheld device provided by another embodiment of the present invention. 10 shows a flowchart of a method for spatial positioning of an intelligent terminal of a handheld device shown in FIG. 9; FIG. 2 shows an operational principle diagram of a virtual system provided by an embodiment of the present invention. FIG. 6 shows an operational principle diagram of a virtual system provided by another embodiment of the present invention. 13 shows a flowchart of a method for spatial positioning of an intelligent terminal of the virtual system shown in FIG. 12; FIG. 6 shows an operational principle diagram of a virtual system provided by another embodiment of the present invention. 15 shows a flowchart of a method for spatial positioning of an intelligent terminal of the virtual system shown in FIG. 14; FIG. 6 shows a structural schematic diagram of a virtual operating handle provided by another embodiment of the present invention. 1 is a diagram illustrating the operating principle of an electronic device provided by an embodiment of the present invention.

本発明の説明において、「複数」は、他に特に定義されない限り、少なくとも2つ、例えば、3つなどを意味する。本出願の実施例におけるすべての方向指示(上、下、左、右、前、後、頂、底、……など)は、ある特定の姿勢(図に示す)での各部材間の相対的な位置関係、運動状況などを説明するためにのみ使用される。前記特定の姿勢が変化する場合、前記方向指示もそれに応じて変化する。また、「含む」や「有する」という用語及びそれらの任意の変形は、非排他的な包含をカーバすることを意図する。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は機器は、挙げられたステップ又はユニットに限定されず、任意選択で、挙げられていないステップ又はユニットを更に含み、又はこれらのプロセス、方法、製品又は機器に固有の他のステップ又はユニットを更に含む。 In the description of this invention, "plurality" means at least two, such as three, unless otherwise defined. All directional indications (up, down, left, right, front, back, top, bottom, etc.) in the embodiments of this application refer to the relative relationship between each member in a certain orientation (as shown in the figure). It is used only to explain physical relationships, movement conditions, etc. If the particular pose changes, the direction indication also changes accordingly. Also, the terms "comprising" and "having" and any variations thereof are intended to cover non-exclusive inclusion. For example, a process, method, system, product or apparatus comprising a series of steps or units is not limited to the steps or units listed, but optionally further comprises steps or units not listed, or processes such as , may further include other steps or units specific to the method, product, or apparatus.

また、本明細書における「実施例」への言及は、実施例に関して説明される特定の特徴、構造又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを意味する。明細書の様々なところで出現する該用語は、必ずしも同じ実施例を指すわけではなく、他の実施例と相互に排他的な独立した又は代替の実施例でもない。当業者は、本明細書に記載の実施例が他の実施例と組み合わせることができることを明確かつ暗黙的に理解している。 Reference herein to an "embodiment" also means that a particular feature, structure, or characteristic described in connection with the embodiment may be included in at least one embodiment of the invention. The appearances of the term in various places in the specification are not necessarily referring to the same embodiment, nor are the terms mutually exclusive, independent or alternative embodiments. Those skilled in the art clearly and implicitly understand that the embodiments described herein can be combined with other embodiments.

以下は、本発明の実施形態に係る添付図面を参照しながら、本発明の実施形態に係る技術的解決手段を明確かつ詳細に説明する。当然ながら、ここで説明する実施形態は本発明の諸実施形態の全てではなく一部にすぎない。当業者が創造的な作業なしに本発明の実施例に基づいて得られる他の全ての実施例は、本発明の保護範囲に含まれるべきである。 The following describes the technical solution according to the embodiments of the present invention clearly and in detail with reference to the accompanying drawings according to the embodiments of the present invention. Of course, the embodiments described herein are only some, but not all, of the embodiments of the present invention. All other embodiments that those skilled in the art can obtain based on the embodiments of the present invention without creative work should fall within the protection scope of the present invention.

図1は、本発明によって提供されるインテリジェント端末1の正面図を示し、図2は、本発明によって提供されるインテリジェント端末1の背面図を示し、図3は、本発明によって提供されるインテリジェント端末1の動作原理図を示す。図1、図2及び図3に示すように、このインテリジェント端末1は、インテリジェント端末本体100と、表示スクリーン200と、機能切り替えモジュール601と、主制御チップ600と、第1撮像装置400と、第1慣性センサ700と、を含む。
インテリジェント端末本体100は、仮想頭部装着ディスプレイ機器31、又はハンドヘルドデバイスなどの手持機器に着脱可能に取り付けることができる。
表示スクリーン200は、インテリジェント端末本体100の第1側面101上に配置され、正常な表示機能を有し、ビデオ情報や画像情報などを表示することができる。
機能切り替えモジュール601は、インテリジェント端末本体100内に配置され、即ち、機能切り替えモジュール601は、仮想頭部装着ディスプレイ機能とハンドヘルドデバイス機能との間のインテリジェント端末1の切り替えを制御することができる。例えば、インテリジェント端末1が仮想頭部装着ディスプレイに取り付けられると、インテリジェント端末1と仮想頭部装着ディスプレイは仮想システム、例えば、仮想現実システム(以下、VRシステムと略称)又は拡張現実システム(以下、ARシステムと略称)を構成する。この場合、機能切り替えモジュール601は、インテリジェント端末1が仮想頭部装着ディスプレイに取り付けられたという情報を受信し、受信した情報に応じて仮想頭部装着ディスプレイ機能をオンにして、インテリジェント端末1が仮想頭部装着ディスプレイ機能を実行するようにすることができる。
主制御チップ600は、インテリジェント端末本体100内に配置され、機能切り替えモジュール601に通信接続される。
第1撮像装置400は、インテリジェント端末本体100の第2側面102上に配置され、第1側面101と第2側面102は対向する面である。
第1撮像装置400は、赤外線ランプを撮影するために使用することができる。インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられると、インテリジェント端末1、仮想操作ハンドル32及び仮想頭部装着ディスプレイ機器31は仮想システムを構成する。この場合、インテリジェント端末1は、仮想操作ハンドル32と通信接続を確立する必要がある。仮想操作ハンドル32には赤外線ランプが取り付けられる。このとき、インテリジェント端末1の主制御チップ600は、第1撮像装置400をオンにするように制御することができる。それにより、第1撮像装置400は、仮想操作ハンドル32に位置する赤外線ランプを撮影し、仮想操作ハンドル32に位置する赤外線ランプの光点画像を撮影した後、光点画像を主制御チップ600に伝送する。
第1撮像装置400は、また、インテリジェント端末1が位置する周囲環境を撮影するために使用することができる。インテリジェント端末1が仮想頭部装着ディスプレイ機能とハンドヘルドデバイス機能のどちらを実行する場合でも、インテリジェント端末1を位置決めする必要がある。例えば、インテリジェント端末1とハンドヘルドデバイスハンドル2が組み合わせられてハンドヘルドデバイスを構成する場合、インテリジェント端末1とハンドヘルドデバイスハンドル2を位置決めする必要がある。インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられ、仮想操作ハンドル32と仮想システムを構成する場合、インテリジェント端末1及び仮想操作ハンドル32も位置決めする必要がある。第1撮像装置400は、インテリジェント端末1が位置する周囲環境を撮影することで、周囲環境を反映できる画像情報又はビデオ情報を形成し、画像情報及びビデオ情報を主制御チップ600に送信することができる。主制御チップ600は、画像情報又はビデオ情報に基づいて、インテリジェント端末1の位置情報を得ることができる。
第1慣性センサ700は、インテリジェント端末本体100に配置され、インテリジェント端末本体100のIMUデータを検出するために使用される。第1慣性センサ700は、インテリジェント端末1のIMUデータを検出した後、IMUデータを主制御チップ600に伝送する。主制御チップ600は、IMUデータ、及び第1撮像装置400によって撮影されたインテリジェント端末1の位置する環境の画像情報又はビデオ情報に基づいて、インテリジェント端末1の空間位置決め情報、つまり、インテリジェント端末1の6DOFデータを確定することができる、即ち、平行移動自由度及び回転自由度に基づいて、6つの角度の自由度を取得することができる。
1 shows a front view of the intelligent terminal 1 provided by the present invention, FIG. 2 shows a rear view of the intelligent terminal 1 provided by the present invention, and FIG. 3 shows an intelligent terminal 1 provided by the present invention. 1 shows a diagram of the operating principle of No. 1. As shown in FIGS. 1, 2, and 3, this intelligent terminal 1 includes an intelligent terminal main body 100, a display screen 200, a function switching module 601, a main control chip 600, a first imaging device 400, 1 inertial sensor 700.
The intelligent terminal body 100 can be removably attached to a virtual head-mounted display device 31 or a handheld device such as a handheld device.
The display screen 200 is disposed on the first side 101 of the intelligent terminal body 100, has a normal display function, and can display video information, image information, etc.
The function switching module 601 is located in the intelligent terminal body 100, that is, the function switching module 601 can control the switching of the intelligent terminal 1 between the virtual head-mounted display function and the handheld device function. For example, when the intelligent terminal 1 is attached to a virtual head-mounted display, the intelligent terminal 1 and the virtual head-mounted display are connected to a virtual system, such as a virtual reality system (hereinafter referred to as a VR system) or an augmented reality system (hereinafter referred to as an AR system). system). In this case, the function switching module 601 receives the information that the intelligent terminal 1 is attached to the virtual head-mounted display, turns on the virtual head-mounted display function according to the received information, and switches the intelligent terminal 1 to the virtual head-mounted display. It can be adapted to perform head-mounted display functions.
The main control chip 600 is disposed within the intelligent terminal body 100 and is communicatively connected to the function switching module 601 .
The first imaging device 400 is disposed on the second side surface 102 of the intelligent terminal body 100, and the first side surface 101 and the second side surface 102 are opposite surfaces.
The first imaging device 400 can be used to photograph an infrared lamp. When the intelligent terminal 1 is attached to the virtual head-mounted display device 31, the intelligent terminal 1, the virtual operating handle 32 and the virtual head-mounted display device 31 constitute a virtual system. In this case, the intelligent terminal 1 needs to establish a communication connection with the virtual operating handle 32. An infrared lamp is attached to the virtual operation handle 32. At this time, the main control chip 600 of the intelligent terminal 1 can control the first imaging device 400 to turn on. Thereby, the first imaging device 400 photographs the infrared lamp located on the virtual operation handle 32, photographs a light spot image of the infrared lamp located on the virtual operation handle 32, and then transmits the light spot image to the main control chip 600. Transmit.
The first imaging device 400 can also be used to capture the surrounding environment in which the intelligent terminal 1 is located. Whether the intelligent terminal 1 performs a virtual head-mounted display function or a handheld device function, it is necessary to position the intelligent terminal 1. For example, when the intelligent terminal 1 and the handheld device handle 2 are combined to form a handheld device, the intelligent terminal 1 and the handheld device handle 2 need to be positioned. When the intelligent terminal 1 is attached to the virtual head-mounted display device 31 and forms a virtual system with the virtual operating handle 32, the intelligent terminal 1 and the virtual operating handle 32 also need to be positioned. The first imaging device 400 can form image information or video information that can reflect the surrounding environment by photographing the surrounding environment where the intelligent terminal 1 is located, and send the image information and video information to the main control chip 600. can. The main control chip 600 can obtain the location information of the intelligent terminal 1 based on image information or video information.
The first inertial sensor 700 is disposed on the intelligent terminal body 100 and is used to detect IMU data of the intelligent terminal body 100. The first inertial sensor 700 detects IMU data of the intelligent terminal 1 and then transmits the IMU data to the main control chip 600. The main control chip 600 generates spatial positioning information of the intelligent terminal 1 based on the IMU data and the image information or video information of the environment in which the intelligent terminal 1 is located photographed by the first imaging device 400. 6 DOF data can be determined, ie, 6 angular degrees of freedom can be obtained based on the translational and rotational degrees of freedom.

具体的には、慣性センサ(Inertial Measurement Unit、IMUと略称)は、物体の3軸姿勢角(又は角速度)及び加速度を測定する装置である。一般に、IMUは、3つの単軸加速度計及び3つの単軸ジャイロスコープを含む。加速度計は、キャリア座標系の独立した3軸の物体の加速度信号を検出し、ジャイロスコープは、ナビゲーション座標系に対するキャリアの角速度信号を検出するため、慣性センサは、3次元空間内の物体の角速度と加速度を測定し、それに基づいて、物体の回転自由度など、物体の姿勢を解くことができる。回転自由度とは、上下、前後、左右の3つの位置に関する自由度を意味する。IMUデータは、慣性センサによって検出された物体の結果データ、即ち、慣性センサによって検出された3次元空間内の物体の角速度及び加速度である。従って、第1慣性センサ700は、インテリジェント端末本体100を検出するIMUデータを検出することができ、インテリジェント端末本体100を検出するIMUデータに基づいて、インテリジェント端末本体100の姿勢、例えば、インテリジェント端末本体100の回転自由度を解くことができる。回転自由度とは、上下、前後、左右の3つの位置に関する自由度を意味する。 Specifically, an inertial sensor (abbreviated as Inertial Measurement Unit, IMU) is a device that measures the three-axis attitude angle (or angular velocity) and acceleration of an object. Typically, an IMU includes three single-axis accelerometers and three single-axis gyroscopes. An accelerometer detects the acceleration signal of an object in three independent axes in the carrier coordinate system, a gyroscope detects the angular velocity signal of the carrier relative to the navigation coordinate system, and an inertial sensor detects the angular velocity of an object in three-dimensional space. Based on this, the orientation of the object, including its rotational degrees of freedom, can be determined. The rotational degree of freedom means the degree of freedom regarding three positions: up and down, front and back, and left and right. The IMU data is the result data of the object detected by the inertial sensor, that is, the angular velocity and acceleration of the object in three-dimensional space detected by the inertial sensor. Therefore, the first inertial sensor 700 can detect IMU data for detecting the intelligent terminal body 100, and can determine the posture of the intelligent terminal body 100, for example, based on the IMU data for detecting the intelligent terminal body 100. 100 rotational degrees of freedom can be solved. The rotational degree of freedom means the degree of freedom regarding three positions: up and down, front and back, and left and right.

本発明によって提供されるインテリジェント端末1は、仮想頭部装着ディスプレイ機器31に着脱可能に接続することができる。即ち、仮想システムを分離式仮想システムにすることができる。即ち、インテリジェント端末1と仮想頭部装着ディスプレイ機器31は分離可能に設置される。インテリジェント端末1が仮想頭部装着ディスプレイ機器31から分離されると、インテリジェント端末1は、ハンドヘルドデバイスハンドル2と通信接続を確立することができ、インテリジェント端末1における主制御チップ600は、インテリジェント端末1の機能を仮想頭部装着ディスプレイ機能からハンドヘルドデバイス機能に切り替え、それにより、インテリジェント端末1とハンドヘルドデバイスハンドル2は、ハンドヘルドデバイスを構成する。インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられると、インテリジェント端末1における主制御チップ600は、インテリジェント端末1の機能をハンドヘルドデバイス機能から仮想頭部装着ディスプレイ機能に切り替え、それにより、インテリジェント端末1、仮想ハンドヘルドデバイス及び仮想頭部装着ディスプレイ機器31は仮想システムを構成する。その結果、インテリジェント端末1は2つの機能を持つことができ、ユーザーは、1つのインテリジェント端末1を通じて仮想システム及びハンドヘルドデバイスの2種類の製品の機能を体験することができる。また、インテリジェント端末1には第1慣性センサ700及び第1撮像装置400が設けられる。主制御チップ600は、第1撮像装置400によって撮影されたインテリジェント端末1の環境情報、及び第1慣性センサ700によって検出されたインテリジェント端末1のIMUデータに基づいて、インテリジェント端末1の空間位置決め情報、即ち、6DOFデータを確定することができ、それにより、インテリジェント端末1の正確な位置決めが実現される。 The intelligent terminal 1 provided by the present invention can be detachably connected to a virtual head-mounted display device 31. That is, the virtual system can be made into a separate virtual system. That is, the intelligent terminal 1 and the virtual head-mounted display device 31 are installed so that they can be separated. When the intelligent terminal 1 is separated from the virtual head-mounted display device 31, the intelligent terminal 1 can establish a communication connection with the handheld device handle 2, and the main control chip 600 in the intelligent terminal 1 The function is switched from a virtual head-mounted display function to a handheld device function, whereby the intelligent terminal 1 and the handheld device handle 2 constitute a handheld device. When the intelligent terminal 1 is attached to the virtual head-mounted display device 31, the main control chip 600 in the intelligent terminal 1 switches the function of the intelligent terminal 1 from the handheld device function to the virtual head-mounted display function, so that the intelligent terminal 1. The virtual handheld device and the virtual head-mounted display device 31 constitute a virtual system. As a result, the intelligent terminal 1 can have two functions, and the user can experience the functions of two types of products, the virtual system and the handheld device, through one intelligent terminal 1. Furthermore, the intelligent terminal 1 is provided with a first inertial sensor 700 and a first imaging device 400. The main control chip 600 provides spatial positioning information of the intelligent terminal 1 based on the environmental information of the intelligent terminal 1 photographed by the first imaging device 400 and the IMU data of the intelligent terminal 1 detected by the first inertial sensor 700. That is, 6DOF data can be determined, thereby realizing accurate positioning of the intelligent terminal 1.

オプションで、図1に示すように、インテリジェント端末1は、インテリジェント端末本体100の第2側面102上に配置された第3撮像装置300をさらに含む。第3撮像装置300は、深度撮像装置であり、インテリジェント端末1が位置する周囲環境を撮影することができる。深度撮像装置は、インテリジェント端末1が位置する周囲環境の平面画像に加えて、インテリジェント端末1が位置する周囲環境の深度情報、即ち、インテリジェント端末1が位置する周囲環境の3次元の位置とサイズの情報を取得することができ、距離情報を通じて物体間のより豊かな位置関係を取得することができるので、主制御チップ600は、インテリジェント端末1に対して空間位置決めを行う際に、第1撮像装置400によって撮影された環境情報、第3撮像装置300によって撮影された環境の深度情報及びインテリジェント端末1のIMUデータに基づいて、インテリジェント端末1の空間位置決め情報を確定することができる。インテリジェント端末1の空間位置決めの精度が向上する。 Optionally, as shown in FIG. 1, the intelligent terminal 1 further includes a third imaging device 300 disposed on the second side 102 of the intelligent terminal body 100. The third imaging device 300 is a depth imaging device and is capable of photographing the surrounding environment where the intelligent terminal 1 is located. In addition to a planar image of the surrounding environment where the intelligent terminal 1 is located, the depth imaging device captures depth information of the surrounding environment where the intelligent terminal 1 is located, that is, the three-dimensional position and size of the surrounding environment where the intelligent terminal 1 is located. Since the main control chip 600 can acquire information and obtain richer positional relationships between objects through distance information, the main control chip 600 uses the first imaging device when performing spatial positioning for the intelligent terminal 1. Based on the environmental information photographed by the third imaging device 400, the depth information of the environment photographed by the third imaging device 300, and the IMU data of the intelligent terminal 1, the spatial positioning information of the intelligent terminal 1 can be determined. The accuracy of spatial positioning of the intelligent terminal 1 is improved.

オプションで、第1撮像装置400の数は4つであり、4つの第1撮像装置400は2組の撮像装置組に分けられ、各組の撮像装置組における2つの第1撮像装置400は、インテリジェント端末本体100の中心について対称である。例えば、インテリジェント端末本体100が四方体である場合、即ち、インテリジェント端末本体100上の第2側面102が四辺形である場合、4つの第1撮像装置400は、四辺形の4つの角の位置に分布することができる。このようにして、第1撮像装置400の位置を最大化し、赤外線センサの光点画像と、インテリジェント端末1が位置する周囲環境とを撮影することができる。 Optionally, the number of first imaging devices 400 is four, and the four first imaging devices 400 are divided into two imaging device sets, and the two first imaging devices 400 in each imaging device set are: It is symmetrical about the center of the intelligent terminal body 100. For example, when the intelligent terminal main body 100 is a quadrilateral, that is, when the second side surface 102 on the intelligent terminal main body 100 is a quadrilateral, the four first imaging devices 400 are placed at the four corners of the quadrilateral. can be distributed. In this way, the position of the first imaging device 400 can be maximized to capture the light spot image of the infrared sensor and the surrounding environment where the intelligent terminal 1 is located.

本発明の一実施例では、図4は、本発明の別の実施例によって提供されるインテリジェント端末1の動作原理図を示す。図4に示すように、このインテリジェント端末は、インテリジェント端末本体内に配置された輝度コントローラー201をさらに含む。輝度コントローラー201は、主制御チップ600及び表示スクリーン200にそれぞれ通信接続される。インテリジェント端末1が仮想頭部装着ディスプレイに取り付けられた場合、機能切り替えモジュール601は、インテリジェント端末1の機能を仮想頭部装着ディスプレイ機能に切り替え、輝度コントローラー201は、表示スクリーン200の輝度を低下させる。表示スクリーン200の輝度は低下するため、表示スクリーン200に1フレームの画像を表示する際の表示画素の点灯時間の長さも短くなる。即ち、1フレームの表示画像を短くすると、画素を点灯させるための時間の長さが短くなり、それに伴って、残光時間も短くなる。従って、スミア現象による表示スクリーン200の表示画面の鮮明度の低下が軽減され、ユーザーの体験感が向上する。インテリジェント端末1がハンドヘルドデバイス機器に取り付けられた場合、機能切り替えモジュール601は、インテリジェント端末1の機能をハンドヘルドデバイス機能に切り替え、輝度コントローラー201は、表示スクリーン200の輝度を向上させる。 In one embodiment of the invention, FIG. 4 shows an operating principle diagram of the intelligent terminal 1 provided by another embodiment of the invention. As shown in FIG. 4, the intelligent terminal further includes a brightness controller 201 disposed within the intelligent terminal body. Brightness controller 201 is communicatively connected to main control chip 600 and display screen 200, respectively. When the intelligent terminal 1 is attached to the virtual head-mounted display, the function switching module 601 switches the function of the intelligent terminal 1 to the virtual head-mounted display function, and the brightness controller 201 reduces the brightness of the display screen 200. Since the brightness of the display screen 200 decreases, the lighting time of the display pixels when displaying one frame of image on the display screen 200 also decreases. That is, when one frame of a display image is shortened, the length of time for lighting up a pixel is shortened, and the afterglow time is also shortened accordingly. Therefore, deterioration in the clarity of the display screen 200 due to the smear phenomenon is reduced, and the user's experience is improved. When the intelligent terminal 1 is attached to the handheld device equipment, the function switching module 601 switches the function of the intelligent terminal 1 to the handheld device function, and the brightness controller 201 improves the brightness of the display screen 200.

本発明の一実施例では、図5は、本発明の別の実施例によって提供されるインテリジェント端末1の動作原理図を示す。図5に示すように、このインテリジェント端末1は、インテリジェント端末本体100内に配置された画像プロセッサ800をさらに含む。画像プロセッサ800は主制御チップ600に通信接続される。インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられた場合、主制御チップ600内の機能切り替えモジュール601は、インテリジェント端末1の機能を仮想頭部装着ディスプレイ機能に切り替え、主制御チップ600は、インテリジェント端末1を仮想頭部装着ディスプレイ機能に切り替えたという情報を画像プロセッサ800に伝送する。画像プロセッサ800は、この情報に基づいて動作を開始するので、表示スクリーン200に表示される画像情報に対して非同期スペースワープ、非同期タイムワープ処理及び画像レンダリング処理を行って、画面の鮮明度を向上させることができる。 In one embodiment of the invention, FIG. 5 shows an operating principle diagram of the intelligent terminal 1 provided by another embodiment of the invention. As shown in FIG. 5, this intelligent terminal 1 further includes an image processor 800 disposed within the intelligent terminal body 100. Image processor 800 is communicatively coupled to main control chip 600 . When the intelligent terminal 1 is attached to the virtual head-mounted display device 31, the function switching module 601 in the main control chip 600 switches the function of the intelligent terminal 1 to the virtual head-mounted display function, and the main control chip 600 Information that the intelligent terminal 1 has been switched to the virtual head-mounted display function is transmitted to the image processor 800. Since the image processor 800 starts operating based on this information, it performs asynchronous space warp processing, asynchronous time warp processing, and image rendering processing on the image information displayed on the display screen 200 to improve the clarity of the screen. can be done.

本発明の一実施例では、図1に示すように、インテリジェント端末1は、インテリジェント端末本体100の第1側面101上に配置された第2撮像装置500をさらに含む。第2撮像装置500は、インテリジェント端末1のユーザーを撮影するために使用される。第2撮像装置500は、主制御チップ600に通信接続される。第2撮像装置500は、ユーザーを撮影することができ、即ち、ユーザーの自撮りを実現することができる。主制御チップ600は、ユーザーの画像情報を取得することができるので、ユーザーの画像情報に基づいて、ユーザーの認証を実現するか、又はユーザーの仮想プロフィール画像などを生成することができる。 In one embodiment of the present invention, as shown in FIG. 1, the intelligent terminal 1 further includes a second imaging device 500 disposed on the first side surface 101 of the intelligent terminal body 100. The second imaging device 500 is used to photograph the user of the intelligent terminal 1 . The second imaging device 500 is communicatively connected to the main control chip 600. The second imaging device 500 can take a picture of the user, that is, can take a selfie of the user. The main control chip 600 can obtain the user's image information, so it can authenticate the user or generate a virtual profile image of the user based on the user's image information.

本発明の第2態様によれば、本発明は、ハンドヘルドデバイスをさらに提供する。図6は、本発明の一実施例によって提供されるハンドヘルドデバイスの動作原理図を示す。図6に示すように、このハンドヘルドデバイスは、上記のインテリジェント端末1と、インテリジェント端末1に接続されたハンドヘルドデバイスハンドル2と、を含む。ハンドヘルドデバイスハンドル2には、第1赤外線センサ22及び第2慣性センサ23が設けられる。第2慣性センサ23は、ハンドヘルドデバイスハンドル2のIMUデータを検出するために使用される。第2慣性センサ23は、インテリジェント端末1における主制御チップ600に通信接続される。インテリジェント端末1上の第1撮像装置400は、第1赤外線センサ22と、インテリジェント端末1が位置する周囲環境を撮影するために使用される。ハンドヘルドデバイスハンドル2がインテリジェント端末1に通信接続されると、機能切り替えモジュール601は、インテリジェント端末1の機能をハンドヘルドデバイス機能に切り替える。このとき、インテリジェント端末1とハンドヘルドデバイスハンドル2はハンドヘルドデバイスを構成する。 According to a second aspect of the invention, the invention further provides a handheld device. FIG. 6 shows an operational principle diagram of a handheld device provided by an embodiment of the present invention. As shown in FIG. 6, this handheld device includes the above-mentioned intelligent terminal 1 and a handheld device handle 2 connected to the intelligent terminal 1. The handheld device handle 2 is provided with a first infrared sensor 22 and a second inertial sensor 23 . The second inertial sensor 23 is used to detect IMU data of the handheld device handle 2. The second inertial sensor 23 is communicatively connected to the main control chip 600 in the intelligent terminal 1 . The first imaging device 400 on the intelligent terminal 1 is used to photograph the first infrared sensor 22 and the surrounding environment in which the intelligent terminal 1 is located. When the handheld device handle 2 is communicatively connected to the intelligent terminal 1, the function switching module 601 switches the function of the intelligent terminal 1 to the handheld device function. At this time, the intelligent terminal 1 and the handheld device handle 2 constitute a handheld device.

オプションで、図6に示すように、ハンドヘルドデバイスは、コネクタ24と、多機能押しボタン25と、機能プロセッサ26とをさらに含む。コネクタ24は、ハンドヘルドデバイスハンドル2及びインテリジェント端末1にそれぞれ通信接続される。コネクタ24は、ハンドヘルドデバイスハンドル2とインテリジェント端末1との通信接続を実現することができる。多機能押しボタン25はハンドヘルドデバイスハンドル2に配置される。機能プロセッサ26は、多機能押しボタン25と、インテリジェント端末1の主制御チップ600とにそれぞれ接続される。機能プロセッサ26は、ユーザーが多機能押しボタン25を介して入力した操作命令を受信し、操作命令を主制御チップ600に送信するために使用される。 Optionally, as shown in FIG. 6, the handheld device further includes a connector 24, a multifunction pushbutton 25, and a function processor 26. Connector 24 is communicatively connected to handheld device handle 2 and intelligent terminal 1, respectively. The connector 24 can realize a communication connection between the handheld device handle 2 and the intelligent terminal 1. A multi-function pushbutton 25 is located on the handheld device handle 2. The function processor 26 is connected to the multifunction push button 25 and the main control chip 600 of the intelligent terminal 1, respectively. The function processor 26 is used to receive operation commands input by the user via the multi-function push button 25 and send the operation commands to the main control chip 600.

本発明の一実施例では、インテリジェント端末1とハンドヘルドデバイスハンドル2がハンドヘルドデバイスを構成した後、ユーザーがハンドヘルドデバイスを操作する過程中において、インテリジェント端末1及びハンドヘルドデバイスハンドル2の両方に対して空間位置決めを行う必要がある。図7は、本発明の別の実施例によって提供されるハンドヘルドデバイスの動作原理図を示す。図7に示すように、主制御チップ600は、第1制御ユニット602と第1計算ユニット603を含む。
第1制御ユニット602は、機能切り替えモジュール601、第1撮像装置400及び第1慣性センサ700にそれぞれ通信接続される。第1制御ユニット602は、第1撮像装置400を制御してインテリジェント端末1の位置する周囲環境の第1画像を撮影し、第1慣性センサ700を制御してインテリジェント端末1のIMUデータを検出するために使用される。
第1計算ユニット603は、第1制御ユニット602、第1撮像装置400、第1赤外線センサ22、第1慣性センサ700及び第2慣性センサ23にそれぞれ通信接続される。第1計算ユニット603は、第1画像とインテリジェント端末本体のIMUデータを取得し、インテリジェント端末本体のIMUデータ及び第1画像を計算して、インテリジェント端末の空間位置決め情報を生成するために使用される。
In one embodiment of the present invention, after the intelligent terminal 1 and the handheld device handle 2 constitute a handheld device, the spatial positioning for both the intelligent terminal 1 and the handheld device handle 2 is performed during the process of the user operating the handheld device. need to be done. FIG. 7 shows an operational principle diagram of a handheld device provided by another embodiment of the present invention. As shown in FIG. 7, the main control chip 600 includes a first control unit 602 and a first calculation unit 603.
The first control unit 602 is communicatively connected to the function switching module 601, the first imaging device 400, and the first inertial sensor 700, respectively. The first control unit 602 controls the first imaging device 400 to capture a first image of the surrounding environment where the intelligent terminal 1 is located, and controls the first inertial sensor 700 to detect IMU data of the intelligent terminal 1. used for.
The first calculation unit 603 is communicatively connected to the first control unit 602, the first imaging device 400, the first infrared sensor 22, the first inertial sensor 700, and the second inertial sensor 23, respectively. The first calculation unit 603 is used to obtain the first image and the IMU data of the intelligent terminal body, calculate the IMU data of the intelligent terminal body and the first image, and generate spatial positioning information of the intelligent terminal. .

具体的には、図8は、図7に示されるハンドヘルドデバイスのインテリジェント端末1の空間位置決め方法のフローチャートを示す。即ち、図7に示されるハンドヘルドデバイスのインテリジェント端末の空間位置決め時の位置決め方法は、図8に示される。インテリジェント端末1の空間位置決め方法は、以下のステップS101~ステップS103を含む。
ステップS101では、機能切り替えモジュール601は、インテリジェント端末1がハンドヘルドデバイスハンドル2に通信接続されたという接続情報を受信し、接続情報に基づいて、インテリジェント端末1の機能をハンドヘルドデバイス機能に切り替える。
ステップS102では、機能切り替えモジュール601がインテリジェント端末1をハンドヘルドデバイス機能に切り替えることに成功すると、第1制御ユニット602は、インテリジェント端末1に位置する第1撮像装置400を制御してインテリジェント端末1の位置する周囲環境の第1画像を撮影し、第1慣性センサ700を制御してインテリジェント端末1のIMUデータを検出する。
第1撮像装置400は、第1制御ユニット602の制御下で、インテリジェント端末1が位置する周囲環境を撮影して第1画像を形成し、第1画像を第1計算ユニット603に伝送する。第1慣性センサ700は、第1制御ユニット602の制御下で、インテリジェント端末1のIMUデータを検出し、インテリジェント端末1のIMUデータを第1計算ユニット603に伝送する。
ステップS103では、第1計算ユニット603が第1撮像装置400によって伝送された第1画像、及び第1慣性センサ700によって伝送されたインテリジェント端末1のIMUデータを受信した後、第1計算ユニット603は、インテリジェント端末本体100のIMUデータ及び第1画像を計算して、インテリジェント端末1の空間位置決め情報を生成する。
Specifically, FIG. 8 shows a flowchart of a method for spatial positioning of the intelligent terminal 1 of the handheld device shown in FIG. That is, the positioning method during spatial positioning of the intelligent terminal of the handheld device shown in FIG. 7 is shown in FIG. The spatial positioning method of the intelligent terminal 1 includes the following steps S101 to S103.
In step S101, the function switching module 601 receives connection information that the intelligent terminal 1 is communicatively connected to the handheld device handle 2, and switches the function of the intelligent terminal 1 to the handheld device function based on the connection information.
In step S102, when the function switching module 601 successfully switches the intelligent terminal 1 to the handheld device function, the first control unit 602 controls the first imaging device 400 located in the intelligent terminal 1 to position the intelligent terminal 1. A first image of the surrounding environment is taken, and the first inertial sensor 700 is controlled to detect IMU data of the intelligent terminal 1.
Under the control of the first control unit 602 , the first imaging device 400 photographs the surrounding environment in which the intelligent terminal 1 is located to form a first image, and transmits the first image to the first calculation unit 603 . The first inertial sensor 700 detects the IMU data of the intelligent terminal 1 under the control of the first control unit 602 and transmits the IMU data of the intelligent terminal 1 to the first calculation unit 603 .
In step S103, after the first calculation unit 603 receives the first image transmitted by the first imaging device 400 and the IMU data of the intelligent terminal 1 transmitted by the first inertial sensor 700, the first calculation unit 603 , calculate the IMU data and the first image of the intelligent terminal main body 100 to generate spatial positioning information of the intelligent terminal 1.

第1慣性センサ700は、インテリジェント端末本体100のIMUデータを検出するために使用される。IMUデータとは、3つの回転角度の自由度を意味する。第1慣性センサ700は、インテリジェント端末1のIMUデータを検出した後、IMUデータを第1計算ユニット603に伝送する。第1計算ユニット603は、IMUデータ、及び第1撮像装置400によって撮影されたインテリジェント端末1の位置する環境の画像情報又はビデオ情報に基づいて、インテリジェント端末1の空間位置決め情報、つまりインテリジェント端末1の6DOFデータ(以下、6DOFデータと略称)を確定することができる、即ち、平行移動自由度と回転自由度に基づいて、6つの角度の自由度を取得することができる。 The first inertial sensor 700 is used to detect IMU data of the intelligent terminal body 100. IMU data means three rotation angle degrees of freedom. After the first inertial sensor 700 detects the IMU data of the intelligent terminal 1 , it transmits the IMU data to the first calculation unit 603 . The first calculation unit 603 calculates the spatial positioning information of the intelligent terminal 1 based on the IMU data and the image information or video information of the environment in which the intelligent terminal 1 is photographed by the first imaging device 400, that is, the spatial positioning information of the intelligent terminal 1. 6DOF data (hereinafter abbreviated as 6DOF data) can be determined, that is, six angular degrees of freedom can be obtained based on the translational and rotational degrees of freedom.

ステップS101~ステップS103によって、インテリジェント端末1の空間位置決めを実現することができる。即ち、インテリジェント端末1に配置された第1慣性センサ700及び第1撮像装置400によって、インテリジェント端末1の空間位置決めを実現することができる。 Through steps S101 to S103, spatial positioning of the intelligent terminal 1 can be realized. That is, spatial positioning of the intelligent terminal 1 can be realized by the first inertial sensor 700 and the first imaging device 400 disposed in the intelligent terminal 1.

さらに、図9に示すように、主制御チップ600は、第2制御ユニット604と第2計算ユニット605をさらに含む。
第2制御ユニット604は、機能切り替えモジュール601、第1撮像装置400及び第2慣性センサ23にそれぞれ通信接続される。第2制御ユニット604は、機能切り替えモジュール601がインテリジェント端末をハンドヘルドデバイス機能に切り替えた場合、第1撮像装置400を制御してハンドヘルドデバイスハンドルに位置する第1赤外線センサ22を撮影し、ハンドヘルドデバイスハンドルに位置する第2慣性センサ23を制御してハンドヘルドデバイスハンドルのIMUデータを検出するために使用される。
第2計算ユニット605は、第1計算ユニット603、第2制御ユニット604、第1撮像装置400及び第2慣性センサ23にそれぞれ通信接続される。第2計算ユニット604は、第1計算ユニット603によって伝送されたインテリジェント端末1の空間位置決め情報、第1撮像装置400によって伝送された第1赤外線センサ22の第1光点画像、及び第2慣性センサ23によって伝送されたハンドヘルドデバイスハンドルのIMUデータを取得し、インテリジェント端末1の空間位置決め情報、第1光点画像及びハンドヘルドデバイスハンドルのIMUデータを計算して、ハンドヘルドデバイスハンドルの空間位置決め情報を生成するために使用される。
Furthermore, as shown in FIG. 9, the main control chip 600 further includes a second control unit 604 and a second calculation unit 605.
The second control unit 604 is communicatively connected to the function switching module 601, the first imaging device 400, and the second inertial sensor 23, respectively. When the function switching module 601 switches the intelligent terminal to the handheld device function, the second control unit 604 controls the first imaging device 400 to photograph the first infrared sensor 22 located on the handheld device handle, and The second inertial sensor 23 located at the second inertial sensor 23 is used to detect IMU data of the handheld device handle.
The second calculation unit 605 is communicatively connected to the first calculation unit 603, the second control unit 604, the first imaging device 400, and the second inertial sensor 23, respectively. The second calculation unit 604 calculates the spatial positioning information of the intelligent terminal 1 transmitted by the first calculation unit 603, the first light spot image of the first infrared sensor 22 transmitted by the first imaging device 400, and the second inertial sensor. 23, and calculate the spatial positioning information of the intelligent terminal 1, the first light spot image, and the IMU data of the handheld device handle to generate the spatial positioning information of the handheld device handle. used for.

具体的には、図10は、インテリジェント端末1の空間位置決め方法のフローチャートを示す。即ち、図9に示されるハンドヘルドデバイスにおけるインテリジェント端末の空間位置決め時の位置決め方法は、図10に示される。インテリジェント端末1の空間位置決め方法は、以下のステップS104~ステップS105をさらに含む。
ステップS104では、第2制御ユニット604は、第1撮像装置400を制御してハンドヘルドデバイスハンドル2に位置する第1赤外線センサ22を撮影し、ハンドヘルドデバイスハンドル2に位置する第2慣性センサ23を制御してハンドヘルドデバイスハンドル2のIMUデータを検出する。
第1撮像装置400は、第2制御ユニット604の制御下で、ハンドヘルドデバイスハンドル2の第1赤外線センサ22を撮影して、第1赤外線センサ22の第1光点画像を形成する。第2慣性センサ23は、第2制御ユニット604の制御下で、ハンドヘルドデバイスハンドル2のIMUデータを検出し、ハンドヘルドデバイスハンドル2のIMUデータを第1空間位置決めユニット606に伝送する。
Specifically, FIG. 10 shows a flowchart of the method for spatial positioning of the intelligent terminal 1. That is, the positioning method for spatial positioning of the intelligent terminal in the handheld device shown in FIG. 9 is shown in FIG. The spatial positioning method of the intelligent terminal 1 further includes the following steps S104 to S105.
In step S104, the second control unit 604 controls the first imaging device 400 to take an image of the first infrared sensor 22 located on the handheld device handle 2, and controls the second inertial sensor 23 located on the handheld device handle 2. to detect the IMU data of the handheld device handle 2.
The first imaging device 400 photographs the first infrared sensor 22 of the handheld device handle 2 under the control of the second control unit 604 to form a first light spot image of the first infrared sensor 22 . The second inertial sensor 23 detects the IMU data of the handheld device handle 2 and transmits the IMU data of the handheld device handle 2 to the first spatial positioning unit 606 under the control of the second control unit 604 .

ステップS105では、第2計算ユニット605は、第1計算ユニット603によって伝送されたインテリジェント端末1の空間位置決め情報、第1撮像装置400によって伝送された第1赤外線センサ22の第1光点画像、及び第2慣性センサ23によって伝送されたハンドヘルドデバイスハンドル2のIMUデータを取得し、インテリジェント端末1の空間位置決め情報、第1光点画像及びハンドヘルドデバイスハンドル2のIMUデータを計算して、ハンドヘルドデバイスハンドル2の空間位置決め情報を生成する。つまり、ハンドヘルドデバイスハンドル2の6DOFデータ(以下、6DOFデータを略称)、即ち、平行移動自由度及び回転自由度に基づいて、6つの角度の自由度を取得することができる。 In step S105, the second calculation unit 605 calculates the spatial positioning information of the intelligent terminal 1 transmitted by the first calculation unit 603, the first light spot image of the first infrared sensor 22 transmitted by the first imaging device 400, and Obtain the IMU data of the handheld device handle 2 transmitted by the second inertial sensor 23, calculate the spatial positioning information of the intelligent terminal 1, the first light spot image and the IMU data of the handheld device handle 2, and generate spatial positioning information. In other words, six angular degrees of freedom can be obtained based on the 6DOF data (hereinafter abbreviated as 6DOF data) of the handheld device handle 2, that is, the parallel movement degree of freedom and the rotational degree of freedom.

ステップS104~ステップS105により、ハンドヘルドデバイスハンドル2の空間位置決めを実現することができる。即ち、インテリジェント端末1上の第1撮像装置400によって撮影されたハンドヘルドデバイスハンドル2上の第1赤外線センサ22の第1光点画像、及びハンドヘルドデバイスハンドル2に位置する第2慣性センサ23によって検出されたハンドヘルドデバイスハンドル2のIMUデータに基づいて、ハンドヘルドデバイスハンドル2の空間位置決め情報を確定することができる。 Through steps S104 and S105, spatial positioning of the handheld device handle 2 can be realized. That is, the first light spot image of the first infrared sensor 22 on the handheld device handle 2 is taken by the first imaging device 400 on the intelligent terminal 1, and the first light spot image is detected by the second inertial sensor 23 located on the handheld device handle 2. Based on the IMU data of the handheld device handle 2, the spatial positioning information of the handheld device handle 2 can be determined.

例示的な仮想システム
本発明の第3態様として、本発明はまた、仮想システムを提供する。図11は、本発明の一実施例によって提供されるハンドヘルドデバイスの動作原理図を示す。図11に示すように、この仮想システムは、上記のインテリジェント端末1と、仮想頭部装着ディスプレイ機器31であって、インテリジェント端末1が仮想頭部装着ディスプレイ機器31本体に着脱可能に取り付けられる仮想頭部装着ディスプレイ機器31と、仮想操作ハンドル32と、を含む。仮想操作ハンドル32は、制御ハンドル33と、制御ハンドル33に配置された第2赤外線センサ34と、制御ハンドル33に配置され、制御ハンドル33のIMUデータを測定するための第3慣性センサ35と、を含む。制御ハンドル33及び第3慣性センサ35はそれぞれ主制御チップ600に通信接続される。
Exemplary Virtual System As a third aspect of the invention, the invention also provides a virtual system. FIG. 11 shows an operational principle diagram of a handheld device provided by an embodiment of the present invention. As shown in FIG. 11, this virtual system includes the above-mentioned intelligent terminal 1 and a virtual head-mounted display device 31, in which the intelligent terminal 1 is attached to a virtual head that is removably attached to the main body of the virtual head-mounted display device 31. It includes an attached display device 31 and a virtual operation handle 32. The virtual operation handle 32 includes a control handle 33 , a second infrared sensor 34 disposed on the control handle 33 , and a third inertial sensor 35 disposed on the control handle 33 for measuring IMU data of the control handle 33 . including. Control handle 33 and third inertial sensor 35 are each communicatively connected to main control chip 600 .

インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられると、機能切り替えモジュール601は、インテリジェント端末1の機能を仮想頭部装着ディスプレイ機能に切り替える。このとき、インテリジェント端末1、仮想頭部装着ディスプレイ機器31及び仮想操作ハンドル32は仮想システムを構成する。例えば、インテリジェント端末1、VRヘッドセット及びVRハンドルはVRシステムを構成する。 When the intelligent terminal 1 is attached to the virtual head mounted display device 31, the function switching module 601 switches the function of the intelligent terminal 1 to the virtual head mounted display function. At this time, the intelligent terminal 1, the virtual head-mounted display device 31, and the virtual operating handle 32 constitute a virtual system. For example, the intelligent terminal 1, the VR headset, and the VR handle constitute a VR system.

インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられた後、ユーザーが仮想システムを操作する過程において、インテリジェント端末1及び仮想操作ハンドル32の両方に対して空間位置決めを行う必要がある。図12は、本発明の別の実施例によって提供される仮想システムの動作原理図を示す。図12に示すように、主制御チップ600は、第3制御ユニット607と第3計算ユニット408を含む。
第3制御ユニット607は、機能切り替えモジュール601、第1撮像装置400及び第1慣性センサ700にそれぞれ通信接続される。第3制御ユニット607は、第1撮像装置400を制御してインテリジェント端末の位置する周囲環境の第1画像を撮影し、第1慣性センサ700を制御してインテリジェント端末のIMUデータを検出するために使用される。
第3計算ユニット408は、第3制御ユニット407、第1撮像装置400、第1赤外線センサ22及び第1慣性センサ700にそれぞれ通信接続される。第3計算ユニット408は、第1画像及びインテリジェント端末本体のIMUデータを取得し、インテリジェント端末本体のIMUデータ及び第1画像を計算して、インテリジェント端末の空間位置決め情報を生成するために使用される。
After the intelligent terminal 1 is attached to the virtual head-mounted display device 31, in the process of the user operating the virtual system, it is necessary to perform spatial positioning for both the intelligent terminal 1 and the virtual operating handle 32. FIG. 12 shows an operational principle diagram of a virtual system provided by another embodiment of the present invention. As shown in FIG. 12, the main control chip 600 includes a third control unit 607 and a third calculation unit 408.
The third control unit 607 is communicatively connected to the function switching module 601, the first imaging device 400, and the first inertial sensor 700, respectively. The third control unit 607 controls the first imaging device 400 to capture a first image of the surrounding environment in which the intelligent terminal is located, and controls the first inertial sensor 700 to detect IMU data of the intelligent terminal. used.
The third calculation unit 408 is communicatively connected to the third control unit 407, the first imaging device 400, the first infrared sensor 22, and the first inertial sensor 700, respectively. A third calculation unit 408 is used to obtain the first image and the IMU data of the intelligent terminal body, calculate the IMU data of the intelligent terminal body and the first image, and generate spatial positioning information of the intelligent terminal. .

具体的には、図13は、仮想システムにおけるインテリジェント端末の空間位置決め方法のフローチャートを示す。即ち、図13は、仮想システムにおけるインテリジェント端末の空間位置決め時の位置決め方法を示す。図13に示すように、
インテリジェント端末1の空間位置決め方法は、以下のステップS201~ステップS203を含む。
ステップS201では、機能切り替えモジュール601は、インテリジェント端末1が仮想頭部装着ディスプレイ機器31に取り付けられたという取付情報を受信した後、この取付情報に基づいて、インテリジェント端末1の機能を仮想頭部装着ディスプレイ機能に切り替える。
ステップS202では、機能切り替えモジュール601がインテリジェント端末1を仮想頭部装着ディスプレイ機能に切り替えることに成功すると、第3制御ユニット607は、インテリジェント端末1に位置する第1撮像装置400を制御してインテリジェント端末1の位置する周囲環境の第1画像を撮影し、第1慣性センサ700を制御してインテリジェント端末1のIMUデータを検出する。
第1撮像装置は、第3制御ユニット607の制御下で、インテリジェント端末1が位置する周囲環境を撮影して第1画像を形成し、第1画像を第3計算ユニット608に伝送する。第1慣性センサ700は、第3制御ユニット607の制御下で、インテリジェント端末1のIMUデータを検出し、インテリジェント端末1のIMUデータを第3計算ユニット608に伝送する。
ステップS203では、第3計算ユニット608が第1撮像装置400によって伝送された第1画像、及び第1慣性センサ700によって伝送されたインテリジェント端末1のIMUデータを受信した後、第3計算ユニット608は、インテリジェント端末本体100のIMUデータ及び第1画像を計算して、インテリジェント端末1の空間位置決め情報を生成する。
Specifically, FIG. 13 shows a flowchart of a method for spatial positioning of an intelligent terminal in a virtual system. That is, FIG. 13 shows a positioning method when spatially positioning an intelligent terminal in a virtual system. As shown in Figure 13,
The spatial positioning method of the intelligent terminal 1 includes the following steps S201 to S203.
In step S201, after receiving the installation information that the intelligent terminal 1 is attached to the virtual head mounted display device 31, the function switching module 601 switches the function of the intelligent terminal 1 to the virtual head mounted display device 31 based on this installation information. Switch to display function.
In step S202, when the function switching module 601 successfully switches the intelligent terminal 1 to the virtual head mounted display function, the third control unit 607 controls the first imaging device 400 located in the intelligent terminal 1 to A first image of the surrounding environment where the intelligent terminal 1 is located is taken, and the first inertial sensor 700 is controlled to detect IMU data of the intelligent terminal 1 .
Under the control of the third control unit 607 , the first imaging device photographs the surrounding environment in which the intelligent terminal 1 is located to form a first image, and transmits the first image to the third calculation unit 608 . The first inertial sensor 700 detects the IMU data of the intelligent terminal 1 under the control of the third control unit 607 and transmits the IMU data of the intelligent terminal 1 to the third calculation unit 608 .
In step S203, after the third calculation unit 608 receives the first image transmitted by the first imaging device 400 and the IMU data of the intelligent terminal 1 transmitted by the first inertial sensor 700, the third calculation unit 608 , calculate the IMU data and the first image of the intelligent terminal main body 100 to generate spatial positioning information of the intelligent terminal 1.

第1慣性センサ700は、インテリジェント端末本体100のIMUデータを検出するために使用される。IMUデータとは、3つの回転角度の自由度を意味する。第1慣性センサ700は、インテリジェント端末本体100のIMUデータを検出した後、IMUデータを第3計算ユニット608に伝送する。第3計算ユニット608は、IMUデータ、及び第1撮像装置400によって撮影されたインテリジェント端末1の位置する環境の画像情報又はビデオ情報に基づいて、インテリジェント端末1の空間位置決め情報、つまりインテリジェント端末1の6DOFデータ(以下、6DOFデータと略称)を確定することができる、即ち、平行移動自由度と回転自由度に基づいて、6つの角度の自由度を取得することができる。 The first inertial sensor 700 is used to detect IMU data of the intelligent terminal body 100. IMU data means three rotation angle degrees of freedom. After the first inertial sensor 700 detects the IMU data of the intelligent terminal body 100, the first inertial sensor 700 transmits the IMU data to the third calculation unit 608. The third calculation unit 608 calculates the spatial positioning information of the intelligent terminal 1 based on the IMU data and the image information or video information of the environment in which the intelligent terminal 1 is located photographed by the first imaging device 400. 6DOF data (hereinafter abbreviated as 6DOF data) can be determined, that is, six angular degrees of freedom can be obtained based on the translational and rotational degrees of freedom.

ステップS201~ステップS203によって、インテリジェント端末1の空間位置決めを実現することができる。即ち、インテリジェント端末1に配置された第1慣性センサ700及び第1撮像装置400によって、インテリジェント端末1の空間位置決めを実現することができる。 Through steps S201 to S203, spatial positioning of the intelligent terminal 1 can be realized. That is, spatial positioning of the intelligent terminal 1 can be realized by the first inertial sensor 700 and the first imaging device 400 disposed in the intelligent terminal 1.

さらに、図14は、本発明の別の実施例によって提供される仮想システムの動作原理図を示す。図14に示すように、主制御チップ600は、第4制御ユニット609と第4計算ユニット6091をさらに含む。
第4制御ユニット609は、機能切り替えモジュール601、第1撮像装置400、第2赤外線センサ34及び第3慣性センサ35にそれぞれ通信接続される。第4制御ユニット609は、機能切り替えモジュール601がインテリジェント端末を仮想頭部装着ディスプレイ機能に切り替えたとき、第1撮像装置400を制御して仮想操作ハンドルに位置する第2赤外線センサ34を撮影し、仮想操作ハンドルに位置する第3慣性センサ35を制御して仮想操作ハンドルのIMUデータを検出するために使用される。
第4計算ユニット6091は、第3計算ユニット608、第1撮像装置400及び第3慣性センサ35にそれぞれ通信接続される。第4計算ユニット4091は、第3計算ユニット608によって算出されたインテリジェント端末1の空間位置決め情報、第1撮像装置400によって伝送された第2赤外線センサ34の第2光点画像、及び第3慣性センサ35によって伝送された仮想操作ハンドルのIMUデータを取得し、インテリジェント端末1の空間位置決め情報、第2光点画像及び仮想操作ハンドルのIMUデータを計算して、仮想操作ハンドルの空間位置決め情報を生成するために使用される。
Furthermore, FIG. 14 shows an operational principle diagram of a virtual system provided by another embodiment of the present invention. As shown in FIG. 14, the main control chip 600 further includes a fourth control unit 609 and a fourth calculation unit 6091.
The fourth control unit 609 is communicatively connected to the function switching module 601, the first imaging device 400, the second infrared sensor 34, and the third inertial sensor 35, respectively. The fourth control unit 609 controls the first imaging device 400 to photograph the second infrared sensor 34 located on the virtual operation handle when the function switching module 601 switches the intelligent terminal to the virtual head-mounted display function; It is used to control the third inertial sensor 35 located on the virtual operating handle to detect IMU data of the virtual operating handle.
The fourth calculation unit 6091 is communicatively connected to the third calculation unit 608, the first imaging device 400, and the third inertial sensor 35, respectively. The fourth calculation unit 4091 calculates the spatial positioning information of the intelligent terminal 1 calculated by the third calculation unit 608, the second light spot image of the second infrared sensor 34 transmitted by the first imaging device 400, and the third inertial sensor. 35, and calculate the spatial positioning information of the intelligent terminal 1, the second light spot image, and the IMU data of the virtual operating handle to generate the spatial positioning information of the virtual operating handle. used for.

具体的には、図15は、図14に示される仮想システムのインテリジェント端末の空間位置決め方法のフローチャートを示す。即ち、図15は、仮想システムのインテリジェント端末の空間位置決め時の位置決め方法を示す。図15に示すように、インテリジェント端末1の空間位置決め方法は以下のステップS204~ステップS205を含む。
ステップS204では、第4制御ユニット609は、第1撮像装置400を制御して仮想操作ハンドル32に位置する第2赤外線センサ34を撮影し、仮想操作ハンドル32に位置する第3慣性センサ35を制御して仮想操作ハンドル32のIMUデータを検出する。
ステップS205では、第4計算ユニット6091は、第3計算ユニット608によって算出されたインテリジェント端末1の空間位置決め情報、第1撮像装置400によって伝送された第2赤外線センサ34の第2光点画像、及び第2慣性センサ23によって伝送された仮想操作ハンドル32のIMUデータを取得し、インテリジェント端末1の空間位置決め情報、第2光点画像及び仮想操作ハンドル32のIMUデータを計算して、仮想操作ハンドル32の空間位置決め情報を生成する。つまり、仮想操作ハンドル32の6DOFデータ(以下、6DOFデータと略称)、即ち、平行移動自由度及び回転自由度に基づいて、6つの角度の自由度を取得することができる。
Specifically, FIG. 15 shows a flowchart of a method for spatial positioning of an intelligent terminal of the virtual system shown in FIG. That is, FIG. 15 shows a positioning method when spatially positioning an intelligent terminal of a virtual system. As shown in FIG. 15, the spatial positioning method of the intelligent terminal 1 includes the following steps S204 to S205.
In step S204, the fourth control unit 609 controls the first imaging device 400 to photograph the second infrared sensor 34 located on the virtual operation handle 32, and controls the third inertial sensor 35 located on the virtual operation handle 32. to detect the IMU data of the virtual operation handle 32.
In step S205, the fourth calculation unit 6091 calculates the spatial positioning information of the intelligent terminal 1 calculated by the third calculation unit 608, the second light spot image of the second infrared sensor 34 transmitted by the first imaging device 400, and The IMU data of the virtual operating handle 32 transmitted by the second inertial sensor 23 is acquired, and the spatial positioning information of the intelligent terminal 1, the second light spot image, and the IMU data of the virtual operating handle 32 are calculated. generate spatial positioning information. In other words, six angular degrees of freedom can be obtained based on the 6DOF data (hereinafter abbreviated as 6DOF data) of the virtual operation handle 32, that is, the parallel movement degree of freedom and the rotation degree of freedom.

ステップS204~ステップS205により、仮想操作ハンドル32の空間位置決めを実現することができる。即ち、インテリジェント端末1上の第1撮像装置400によって撮影された仮想操作ハンドル32上の第2赤外線センサ34の第2光点画像、及び仮想操作ハンドル32に位置する第3慣性センサ35によって検出されたハンドヘルドデバイスハンドル2のIMUデータに基づいて、仮想操作ハンドル32の空間位置決め情報を確定することができる。 Through steps S204 and S205, spatial positioning of the virtual operating handle 32 can be realized. That is, the second light spot image of the second infrared sensor 34 on the virtual operating handle 32 is captured by the first imaging device 400 on the intelligent terminal 1, and the second light spot image is detected by the third inertial sensor 35 located on the virtual operating handle 32. Based on the IMU data of the handheld device handle 2, the spatial positioning information of the virtual operating handle 32 can be determined.

オプションで、図16は、本発明の別の実施例によって提供される仮想操作ハンドル32の構造模式図を示す。図16に示すように、仮想操作ハンドル32は、ハンドルケーシング36をさらに含む。ハンドルケーシング36は、環形部361及び把握部362を含む。把握部362の中央には、制御ハンドル33を収容し固定するために凹部が設けられる。 Optionally, FIG. 16 shows a structural schematic diagram of a virtual operating handle 32 provided by another embodiment of the present invention. As shown in FIG. 16, the virtual operating handle 32 further includes a handle casing 36. Handle casing 36 includes an annular portion 361 and a grasping portion 362. A recess is provided in the center of the grasping part 362 to accommodate and secure the control handle 33.

以下、図17を参照しながら、本発明の実施例による電子機器を説明する。図17は、本発明の一実施例による電子機器の構造模式図を示す。 Hereinafter, an electronic device according to an embodiment of the present invention will be described with reference to FIG. FIG. 17 shows a schematic structural diagram of an electronic device according to an embodiment of the present invention.

図17に示すように、電子機器900は、1つ又は複数のプロセッサ901及びメモリ902を含む。 As shown in FIG. 17, electronic device 900 includes one or more processors 901 and memory 902.

プロセッサ901は、中央処理装置(CPU)、あるいはデータ処理能力及び/又は情報実行能力を持つ他の形式の処理装置であってもよく、電子機器900における他の構成要素を制御して所望の機能を実行することができる。 Processor 901 may be a central processing unit (CPU) or other type of processing device with data processing and/or information execution capabilities to control other components in electronic device 900 and perform desired functions. can be executed.

メモリ901は、1つ又は複数のコンピュータプログラム製品を含んでもよい。前記コンピュータプログラム製品は、例えば、揮発性メモリ及び/又は不揮発性メモリなど、様々な形式のコンピュータ読取可能な記憶媒体を含んでもよい。前記揮発性メモリは、例えば、ランダムアクセスメモリ(RAM)及び/又はキャッシュメモリ(cache)などを含んでもよい。前記不揮発性メモリは、例えば、読み取り専用メモリ(ROM)、ハードディスク、フラッシュメモリなどを含んでもよい。前記コンピュータ読取可能な記憶媒体には、1つ又は複数のコンピュータプログラム情報が記憶されてもよい。プロセッサ901は、前記プログラム情報を実行して、上述した本発明の各実施例のインテリジェント端末の空間位置決め方法又は他の所望の機能を実現することができる。 Memory 901 may include one or more computer program products. The computer program product may include various forms of computer readable storage media, such as volatile memory and/or non-volatile memory. The volatile memory may include, for example, random access memory (RAM) and/or cache memory (cache). The non-volatile memory may include, for example, read-only memory (ROM), hard disk, flash memory, and the like. One or more computer program information may be stored on the computer readable storage medium. The processor 901 can execute the program information to implement the intelligent terminal spatial positioning method or other desired functions of the embodiments of the present invention described above.

一例では、電子機器900はまた、入力装置903と出力装置904を含んでもよい。これらの構成要素は、バスシステム及び/又は他の形式の接続機構(図示せず)を介して互いに接続される。 In one example, electronic device 900 may also include an input device 903 and an output device 904. These components are connected to each other via a bus system and/or other type of connection mechanism (not shown).

この入力装置903は、例えば、キーボード、マウスなどを含んでもよい。 This input device 903 may include, for example, a keyboard, a mouse, and the like.

この出力装置904は、外部に様々な情報を出力することができる。この出力装置904は、例えば、ディスプレイ、通信ネットワーク及びそれが接続される遠隔出力機器などを含んでもよい。 This output device 904 can output various information to the outside. The output device 904 may include, for example, a display, a communication network, and a remote output device to which it is connected.

当然のことながら、簡単化のために、図17は、電子機器900における本発明に関連する構成要素の一部のみを示し、バス、入力/出力インターフェースなどの構成要素を省略している。これに加えて、具体的な応用状況に応じて、電子機器900は、任意の他の適切な構成要素を含んでもよい。 Of course, for simplicity, FIG. 17 shows only some of the components relevant to the present invention in electronic device 900 and omits components such as buses, input/output interfaces, etc. In addition, depending on the particular application, electronic device 900 may include any other suitable components.

上記の方法及び機器に加えて、本発明の実施例は、コンピュータプログラム情報を含むコンピュータプログラム製品であってもよい。前記コンピュータプログラム情報は、プロセッサによって実行されると、本明細書に記載の本発明の様々な実施例によるインテリジェント端末の空間位置決め方法のステップを前記プロセッサに実行させる。 In addition to the methods and apparatus described above, embodiments of the invention may be computer program products that include computer program information. The computer program information, when executed by a processor, causes the processor to perform the steps of a method for spatial positioning of an intelligent terminal according to various embodiments of the invention described herein.

前記コンピュータプログラム製品は、1種又は多種のプログラムプログラミング言語の任意の組み合わせで、本発明の実施例の操作を実行するためのプログラムコードを編集することができる。前記プログラミング言語は、Java、C++などのオブジェクト指向プログラミング言語を含み、また、「C」言語又は類似のプログラミング言語などの手続き型プログラミング言語を含む。プログラムコードは、ユーザー計算機器で完全に実行することができ、ユーザー機器で部分的に実行することができ、独立したソフトウェアパッケージとして実行することができ、一部はユーザー計算機器で一部は遠隔計算機器で実行することができ、あるいは遠隔計算機器又はサーバーで完全に実行することができる。 The computer program product may compile program code for carrying out operations of embodiments of the invention in any combination of one or more programming languages. The programming languages include object-oriented programming languages such as Java, C++, and procedural programming languages such as the "C" language or similar programming languages. The program code may be executed entirely on user computing equipment, partially on user equipment, or as an independent software package, partially on user computing equipment and partially remotely. It can be executed on a computing device, or it can be executed entirely on a remote computing device or server.

さらに、本発明の実施例は、コンピュータプログラム情報が記憶されたコンピュータ読取可能な記憶媒体であってもよい。前記コンピュータプログラム情報は、プロセッサによって実行されると、前記プロセッサに、本明細書における本発明の様々な実施例によるインテリジェント端末の空間位置決め方法のステップを実行させる。 Additionally, embodiments of the present invention may be a computer readable storage medium having computer program information stored thereon. The computer program information, when executed by a processor, causes the processor to perform the steps of a method for spatial positioning of an intelligent terminal according to various embodiments of the invention herein.

前記コンピュータ読取可能な記憶媒体は、1つ又は複数の読取可能な媒体の任意の組み合わせを採用してもよい。読取可能な媒体は、読取可能な信号媒体又は読取可能な記憶媒体であってもよい。読取可能な記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置若しくはデバイス、又は上記の任意の組み合わせを含んでもよいが、これらに限定されない。読取可能な記憶媒体のより具体的な例(非網羅的なリスト)は、1つ又は複数のリード線を有する通信接続、携帯型ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又は上記の任意の組み合わせを含む。 The computer readable storage medium may employ any combination of one or more readable media. The readable medium may be a readable signal medium or a readable storage medium. A readable storage medium may include, for example and without limitation, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or a combination of any of the above. More specific examples (non-exhaustive list) of readable storage media include communication connections with one or more lead wires, portable disks, hard disks, random access memory (RAM), read only memory (ROM). ), erasable programmable read-only memory (EPROM or flash memory), fiber optics, portable compact disk read-only memory (CD-ROM), optical storage devices, magnetic storage devices, or any combination of the above. .

以上、本発明の基本原理を具体的な実施例と併せて説明したが、本発明で述べた利点、長所、効果などは例示に過ぎず、限定的なものではなく、これらの利点、長所、効果などは、本発明の各実施例に必要なものと考えるべきではないことに留意されたい。また、上記に開示された具体的な詳細は、例示的な目的及び理解を容易にする目的のためのものであって限定するものではなく、上記の詳細は、上記の具体的な詳細を用いて本発明を実施しなければならないことを限定するものではない。 The basic principles of the present invention have been explained above along with specific examples, but the advantages, merits, effects, etc. described in the present invention are merely illustrative and are not limiting. It should be noted that no effect or the like should be considered necessary for each embodiment of the invention. Additionally, the specific details disclosed above are for illustrative purposes and to facilitate understanding, and are not limiting; However, the present invention is not limited to the following.

本発明に関わるデバイス、装置、機器、システムのブロック図は、例示的な例に過ぎず、ブロック図に示されるように接続、布置、配置されなければならないことを要求又は暗示することを意図するものではない。当業者が理解するように、これらのデバイス、装置、機器、システムは、任意の方式で接続、布置、配置することができる。「含む」、「包含する」、「有する」などの用語は、「含むが、これに限定されない」という意味の開放式の用語であり、それと互換的に使用することができる。ここで使用される「又は」と「及び」という用語は、文脈上明らかにそうではないことが示されない限り、「及び/又は」という用語を意味し、それと互換的に使用することができる。ここで使用される「など」という用語は、「などであるがそれに限定されない」という語句を意味し、それと互換的に使用することができる。 Block diagrams of devices, apparatus, equipment, or systems in accordance with the present invention are illustrative examples only and are not intended to require or imply that the devices, apparatus, equipment, or systems involved may be connected, arranged, or arranged as shown in the block diagrams. It's not a thing. As those skilled in the art will appreciate, these devices, apparatus, equipment, and systems may be connected, arranged, and arranged in any manner. Terms such as "comprising," "comprising," "having," and the like are open terms meaning "including, but not limited to," and can be used interchangeably. As used herein, the terms "or" and "and" mean and can be used interchangeably with the term "and/or," unless the context clearly indicates otherwise. As used herein, the term "such as" means the phrase "such as, but not limited to" and can be used interchangeably.

なお、本発明の装置、機器及び方法では、各部材又は各ステップは、分解及び/又は再結合することができる。これらの分解及び/又は再結合は、本発明の等価物とみなされるべきである。 In addition, in the apparatus, apparatus, and method of the present invention, each member or each step can be disassembled and/or recombined. These decompositions and/or recombinations should be considered equivalents of the present invention.

当業者が本発明を作成又は使用できるように、開示される態様の以上の説明は提供される。これらの態様に対する様々な修正は、当業者には非常に明らかであり、ここで定義された一般的な原理は、本発明の範囲から逸脱することなく他の側面に適用することができる。従って、本発明は、ここで示される態様に限定されることを意図するものではなく、本発明の原理と新規な特徴と一致する最も広い範囲に従うものである。 The previous description of the disclosed aspects is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these aspects will be readily apparent to those skilled in the art, and the general principles defined herein may be applied to other aspects without departing from the scope of the invention. Accordingly, this invention is not intended to be limited to the embodiments herein shown, but is to be accorded the widest scope consistent with the principles and novel features of the invention.

上述は本発明創造の好適な実施例に過ぎず、本発明創造を限定するものでなく、本発明創造の精神及び原則内に属する限り、行われるすべての修正、同等の置き換えなどは、いずれも本発明創造の保護範囲内に含まれるべきである。 The above description is only a preferred embodiment of the invention and does not limit the invention, and all modifications, equivalent substitutions, etc. that are made are within the spirit and principles of the invention. shall be included within the protection scope of the invention-creation.

1-インテリジェント端末;100-インテリジェント端末本体;101-第1側面;102-第2側面;200-表示スクリーン;300-第3撮像装置;400-第1撮像装置;500-第2撮像装置;600-主制御チップ;601-機能切り替えモジュール;700-第1慣性センサ;800-画像プロセッサ;201-輝度コントローラー;602-第1制御ユニット;603-第1計算ユニット;第2制御ユニット604;第2計算ユニット605;第3制御ユニット607;第3計算ユニット608;第4制御ユニット609;第4計算ユニット6091;
2-ハンドヘルドデバイスハンドル;22-第1赤外線センサ;23-第2慣性センサ;24-コネクタ;25-多機能押しボタン;26-機能プロセッサ;31-仮想頭部装着ディスプレイ機器;32-仮想操作ハンドル;33-制御ハンドル;34-第2赤外線センサ;35-第3慣性センサ;36-ハンドルケーシング;361-環形部;362-把持部;37-第3赤外線センサ;38-第4慣性センサ;900-電子機器;901-プロセッサ902-メモリ903-入力装置;904-出力装置
1-intelligent terminal; 100-intelligent terminal body; 101-first side; 102-second side; 200-display screen; 300-third imaging device; 400-first imaging device; 500-second imaging device; 600 - Main control chip; 601 - Function switching module; 700 - First inertial sensor; 800 - Image processor; 201 - Brightness controller; 602 - First control unit; 603 - First calculation unit; Second control unit 604; Second Calculation unit 605; third control unit 607; third calculation unit 608; fourth control unit 609; fourth calculation unit 6091;
2-handheld device handle; 22-first infrared sensor; 23-second inertial sensor; 24-connector; 25-multifunction pushbutton; 26-function processor; 31-virtual head-mounted display device; 32-virtual operating handle 33-control handle; 34-second infrared sensor; 35-third inertial sensor; 36-handle casing; 361-annulus; 362-grip; 37-third infrared sensor; 38-fourth inertial sensor; 900 - Electronic equipment; 901 - Processor 902 - Memory 903 - Input device; 904 - Output device

Claims (16)

インテリジェント端末であって、
仮想頭部装着ディスプレイ機器又は手持ち機器に着脱可能に取り付けることができるインテリジェント端末本体と、
前記インテリジェント端末本体の第1側面に配置された表示スクリーンと、
前記インテリジェント端末本体内に配置され、仮想頭部装着ディスプレイ機能とハンドヘルドデバイス機能との間の前記インテリジェント端末の切り替えを制御するための機能切り替えモジュールと、
前記インテリジェント端末本体内に配置され、前記機能切り替えモジュールに通信接続された主制御チップと、
前記インテリジェント端末本体の第2側面上に配置された第1撮像装置であって、前記第1側面と前記第2側面は対向する面である第1撮像装置と、
前記インテリジェント端末本体に配置され、前記インテリジェント端末本体のIMUデータを検出するための第1慣性センサと、を含み、
前記第1撮像装置及び前記第1慣性センサはそれぞれ前記主制御チップに通信接続される、ことを特徴とするインテリジェント端末。
An intelligent terminal,
an intelligent terminal body that can be detachably attached to a virtual head-mounted display device or a handheld device;
a display screen disposed on a first side of the intelligent terminal body;
a function switching module disposed within the intelligent terminal body for controlling switching of the intelligent terminal between a virtual head mounted display function and a handheld device function;
a main control chip disposed within the intelligent terminal body and communicatively connected to the function switching module;
a first imaging device disposed on a second side surface of the intelligent terminal main body, the first imaging device and the second side surface being opposing surfaces;
a first inertial sensor disposed on the intelligent terminal body for detecting IMU data of the intelligent terminal body;
The first imaging device and the first inertial sensor are each communicatively connected to the main control chip.
前記インテリジェント端末本体内に配置された輝度コントローラーをさらに含み、
前記輝度コントローラーは、前記主制御チップ及び前記表示スクリーンにそれぞれ通信接続され、
前記インテリジェント端末が前記ハンドヘルドデバイス機能から前記仮想頭部装着ディスプレイ機能に切り替えられると、前記輝度コントローラーは、前記ディスプレイの表示輝度を低下させ、
前記インテリジェント端末が前記仮想頭部装着ディスプレイ機能から前記ハンドヘルドデバイス機能に切り替えられると、前記輝度コントローラーは、前記ディスプレイの表示輝度を向上させる。
further comprising a brightness controller disposed within the intelligent terminal body;
the brightness controller is communicatively connected to the main control chip and the display screen, respectively;
when the intelligent terminal is switched from the handheld device function to the virtual head mounted display function, the brightness controller reduces the display brightness of the display;
When the intelligent terminal is switched from the virtual head-mounted display function to the handheld device function, the brightness controller increases the display brightness of the display.
前記インテリジェント端末本体内に配置された画像プロセッサをさらに含み、
前記画像プロセッサは、前記主制御チップに通信接続され、
前記画像プロセッサは、前記表示スクリーン上に表示された画像情報に対して非同期スペースワープ、非同期タイムワープ処理及び画像レンダリング処理を行うために使用される、ことを特徴とする請求項1に記載のインテリジェント端末。
further comprising an image processor disposed within the intelligent terminal body;
the image processor is communicatively connected to the main control chip;
The intelligent image processor of claim 1, wherein the image processor is used to perform asynchronous space warping, asynchronous time warping, and image rendering processing on image information displayed on the display screen. terminal.
前記インテリジェント端末本体の前記第1側面上に配置された第2撮像装置をさらに含み、
前記第2撮像装置は、前記主制御チップに通信接続される、ことを特徴とする請求項1に記載のインテリジェント端末。
further comprising a second imaging device disposed on the first side of the intelligent terminal body;
The intelligent terminal of claim 1, wherein the second imaging device is communicatively connected to the main control chip.
前記第1撮像装置の数は4つであり、4つの前記第1撮像装置は2組の撮像装置組に分けられ、各組の撮像装置組における2つの前記第1撮像装置は、前記インテリジェント端末本体の中心について対称である、ことを特徴とする請求項1に記載のインテリジェント端末。 The number of the first imaging devices is four, and the four first imaging devices are divided into two imaging device groups, and the two first imaging devices in each imaging device group are connected to the intelligent terminal. Intelligent terminal according to claim 1, characterized in that it is symmetrical about the center of the body. ハンドヘルドデバイスであって、
請求項1に記載のインテリジェント端末と、
前記インテリジェント端末に接続されたハンドヘルドデバイスハンドルと、を含み、
前記ハンドヘルドデバイスハンドルには、第1赤外線センサ及び第2慣性センサが設けられ、前記第2慣性センサは、前記ハンドヘルドデバイスハンドルのIMUデータを検出するために使用され、
前記第2慣性センサは、前記インテリジェント端末における前記主制御チップに通信接続される、ことを特徴とするハンドヘルドデバイス。
A handheld device,
The intelligent terminal according to claim 1;
a handheld device handle connected to the intelligent terminal;
the handheld device handle is provided with a first infrared sensor and a second inertial sensor, the second inertial sensor is used to detect IMU data of the handheld device handle;
The handheld device according to claim 1, wherein the second inertial sensor is communicatively connected to the main control chip in the intelligent terminal.
前記主制御チップは、第1制御ユニットと、第1計算ユニットと、を含み、
前記第1制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置及び前記第1慣性センサにそれぞれ通信接続され、前記第1制御ユニットは、前記第1撮像装置を制御して前記インテリジェント端末の位置する周囲環境の第1画像を撮影し、前記第1慣性センサを制御して前記インテリジェント端末のIMUデータを検出するために使用され、
前記第1計算ユニットは、前記第1制御ユニット、前記第1撮像装置、前記第1赤外線センサ、前記第1慣性センサ及び前記第2慣性センサにそれぞれ通信接続され、前記第1計算ユニットは、前記第1画像及び前記インテリジェント端末本体のIMUデータを取得し、前記インテリジェント端末本体のIMUデータ及び前記第1画像を計算して、前記インテリジェント端末の空間位置決め情報を生成するために使用される、ことを特徴とする請求項6に記載のハンドヘルドデバイス。
The main control chip includes a first control unit and a first calculation unit,
The first control unit is communicatively connected to the function switching module, the first imaging device, and the first inertial sensor, and the first control unit controls the first imaging device to determine the position of the intelligent terminal. is used to take a first image of the surrounding environment and control the first inertial sensor to detect IMU data of the intelligent terminal;
The first computing unit is communicatively connected to the first control unit, the first imaging device, the first infrared sensor, the first inertial sensor, and the second inertial sensor, respectively, and the first computing unit is connected to the first inertial sensor. obtaining a first image and IMU data of the intelligent terminal body, and calculating the IMU data of the intelligent terminal body and the first image to be used to generate spatial positioning information of the intelligent terminal; 7. The handheld device of claim 6.
前記主制御チップは、第2制御ユニットと、第2計算ユニットと、をさらに含み、
前記第2制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置及び前記第2慣性センサにそれぞれ通信接続され、前記第2制御ユニットは、前記機能切り替えモジュールが前記インテリジェント端末をハンドヘルドデバイス機能に切り替えたとき、前記第1撮像装置を制御して前記ハンドヘルドデバイスハンドルに位置する第1赤外線センサを撮影し、前記ハンドヘルドデバイスハンドルに位置する第2慣性センサを制御して前記ハンドヘルドデバイスハンドルのIMUデータを検出するために使用され、
前記第2計算ユニットは、前記第1計算ユニット、前記第2制御ユニット、前記第1撮像装置及び前記第2慣性センサにそれぞれ通信接続され、前記第2計算ユニットは、前記第1撮像装置によって伝送された前記第1赤外線センサの第1光点画像、及び前記第2慣性センサによって伝送された前記ハンドヘルドデバイスハンドルのIMUデータを取得し、前記第1光点画像、前記ハンドヘルドデバイスハンドルのIMUデータ及び前記インテリジェント端末の空間位置決め情報を計算して、前記ハンドヘルドデバイスハンドルの空間位置決め情報を生成するために使用される、ことを特徴とする請求項7に記載のハンドヘルドデバイス。
The main control chip further includes a second control unit and a second calculation unit,
The second control unit is communicatively connected to the function switching module, the first imaging device, and the second inertial sensor, respectively, and the second control unit is configured to switch the intelligent terminal to a handheld device function. when the first imaging device is controlled to capture a first infrared sensor located on the handheld device handle, and a second inertial sensor located on the handheld device handle is controlled to capture IMU data of the handheld device handle. used to detect,
The second computing unit is communicatively connected to the first computing unit, the second control unit, the first imaging device, and the second inertial sensor, respectively, and the second computing unit is communicatively connected to the first computing unit, the second control unit, the first imaging device, and the second inertial sensor. a first light spot image of the first infrared sensor and IMU data of the handheld device handle transmitted by the second inertial sensor; 8. The handheld device of claim 7, wherein spatial positioning information of the intelligent terminal is used to calculate spatial positioning information of the handheld device handle.
コネクタと、多機能押しボタンと、多機能プロセッサと、をさらに含み、
前記コネクタは、前記ハンドヘルドデバイスハンドル及び前記インテリジェント端末にそれぞれ通信接続され、
前記多機能押しボタンは、前記ハンドヘルドデバイスハンドルに配置され、
前記多機能プロセッサは、前記多機能押しボタン及び前記インテリジェント端末の主制御チップにそれぞれ接続され、前記多機能プロセッサは、ユーザーが前記多機能押しボタンを介して入力した操作命令を受信し、前記操作命令を前記操作命令に前記主制御チップに送信するために使用される、ことを特徴とする請求項6に記載のハンドヘルドデバイス。
further including a connector, a multifunction pushbutton, and a multifunction processor;
the connector is communicatively connected to the handheld device handle and the intelligent terminal, respectively;
the multi-function pushbutton is located on the handheld device handle;
The multi-function processor is connected to the multi-function push button and the main control chip of the intelligent terminal, respectively, and the multi-function processor receives the operation command input by the user through the multi-function push button, and executes the operation. The handheld device according to claim 6, characterized in that the handheld device is used to send commands to the operating command to the main control chip.
仮想システムであって、
請求項1に記載のインテリジェント端末と、
仮想頭部搭載表示機器であって、前記インテリジェント端末が前記仮想頭部搭載表示機器本体に着脱可能に取り付けられる仮想頭部搭載表示機器と、
仮想頭部装着ディスプレイハンドルと、を含み、
前記仮想頭部装着ディスプレイハンドルは、
制御ハンドルと、
前記制御ハンドルに配置された第2赤外線センサと、
前記制御ハンドルに配置され、前記制御ハンドルのIMUデータを測定するための第3慣性センサと、を含み、
前記制御ハンドル及び前記第3慣性センサはそれぞれ前記主制御チップに通信接続される、ことを特徴とする仮想システム。
A virtual system,
The intelligent terminal according to claim 1;
a virtual head-mounted display device, wherein the intelligent terminal is removably attached to the virtual head-mounted display device body;
a virtual head-mounted display handle;
The virtual head-mounted display handle includes:
a control handle;
a second infrared sensor located on the control handle;
a third inertial sensor disposed on the control handle for measuring IMU data of the control handle;
The virtual system wherein the control handle and the third inertial sensor are each communicatively coupled to the main control chip.
前記仮想頭部装着ディスプレイハンドルは、ハンドルケーシングをさらに含み、
前記ハンドルケーシングは、環形部及び把握部を含み、前記把握部の中央には、前記制御ハンドルを収容し固定するために凹部が設けられる、ことを特徴とする請求項10に記載の仮想システム。
The virtual head mounted display handle further includes a handle casing;
11. The virtual system of claim 10, wherein the handle casing includes an annular portion and a gripping portion, and a recess is provided in the center of the gripping portion to accommodate and secure the control handle.
前記主制御チップは、第3制御ユニットと、第3計算ユニットと、を含み、
前記第3制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置及び前記第1慣性センサにそれぞれ通信接続され、前記第3制御ユニットは、前記第1撮像装置を制御して前記インテリジェント端末の位置する周囲環境の第1画像を撮影し、前記第1慣性センサを制御して前記インテリジェント端末のIMUデータを検出するために使用され、
前記第3計算ユニットは、前記第3制御ユニット、前記第1撮像装置、前記第1赤外線センサ及び前記第1慣性センサにそれぞれ通信接続され、前記第3計算ユニットは、前記第1画像及び前記インテリジェント端末本体のIMUデータを取得し、前記インテリジェント端末本体のIMUデータ及び前記第1画像を計算して、前記インテリジェント端末の空間位置決め情報を生成するために使用される、ことを特徴とする請求項10に記載の仮想システム。
The main control chip includes a third control unit and a third calculation unit,
The third control unit is communicatively connected to the function switching module, the first imaging device, and the first inertial sensor, and the third control unit controls the first imaging device to determine the location of the intelligent terminal. is used to take a first image of the surrounding environment and control the first inertial sensor to detect IMU data of the intelligent terminal;
The third computing unit is communicatively connected to the third control unit, the first imaging device, the first infrared sensor, and the first inertial sensor, respectively, and the third computing unit is configured to communicate with the first image and the intelligent 10. The method is used to obtain IMU data of a terminal body, calculate the IMU data of the intelligent terminal body and the first image, and generate spatial positioning information of the intelligent terminal. The virtual system described in
前記主制御チップは、第4制御ユニットと、第4計算ユニットと、をさらに含み、
前記第4制御ユニットは、前記機能切り替えモジュール、前記第1撮像装置、前記第2赤外線センサ及び前記第3慣性センサにそれぞれ通信接続され、前記第4制御ユニットは、前記機能切り替えモジュールが前記インテリジェント端末を仮想頭部装着ディスプレイ機能に切り替えたとき、前記第1撮像装置を制御して前記仮想操作ハンドルに位置する第2赤外線センサを撮影し、前記仮想操作ハンドルに位置する第3慣性センサを制御して前記仮想操作ハンドルのIMUデータを検出するために使用され、
前記第4計算ユニットは、前記第3計算ユニット、前記第1撮像装置及び前記第3慣性センサにそれぞれ通信接続され、前記第4計算ユニットは、前記第1撮像装置によって伝送された前記第2赤外線センサの第2光点画像、及び第3慣性センサによって伝送された前記仮想操作ハンドルのIMUデータを取得し、前記インテリジェント端末の空間位置決め情報、前記第2光点画像及び前記仮想操作ハンドルのIMUデータを計算して、前記仮想操作ハンドルの空間位置決め情報を生成するために使用される、ことを特徴とする請求項12に記載の仮想システム。
The main control chip further includes a fourth control unit and a fourth calculation unit,
The fourth control unit is communicatively connected to the function switching module, the first imaging device, the second infrared sensor, and the third inertial sensor, and the fourth control unit is configured to connect the function switching module to the intelligent terminal. When switching to a virtual head-mounted display function, the first imaging device is controlled to take an image of a second infrared sensor located on the virtual operating handle, and the third inertial sensor located on the virtual operating handle is controlled. is used to detect IMU data of the virtual operation handle;
The fourth calculation unit is communicatively connected to the third calculation unit, the first imaging device, and the third inertial sensor, and the fourth calculation unit is configured to receive the second infrared ray transmitted by the first imaging device. Obtaining a second light point image of a sensor and IMU data of the virtual operating handle transmitted by a third inertial sensor; spatial positioning information of the intelligent terminal, the second light spot image and IMU data of the virtual operating handle; 13. The virtual system of claim 12, wherein the virtual operating handle is used to calculate spatial positioning information for the virtual operating handle.
請求項1に記載のインテリジェント端末を位置決めするためのインテリジェント端末の空間位置決め方法であって、
前記主制御チップが、前記インテリジェント端末に位置する前記第1撮像装置を制御して前記インテリジェント端末の位置する周囲環境の第1画像を撮影し、前記第1慣性センサを制御して前記インテリジェント端末のIMUデータを検出するステップと、
前記主制御チップが、前記第1撮像装置によって撮影された前記インテリジェント端末の位置する周囲環境の第1画像を取得するステップと、
前記主制御チップが、前記第1慣性センサによって検出された前記インテリジェント端末本体のIMUデータを取得するステップと、
前記主制御チップが、前記インテリジェント端末本体のIMUデータ及び前記第1画像を計算して、前記インテリジェント端末の空間位置決め情報を生成するステップと、を含むことを特徴とするインテリジェント端末の空間位置決め方法。
An intelligent terminal spatial positioning method for positioning an intelligent terminal according to claim 1, comprising:
The main control chip controls the first imaging device located in the intelligent terminal to take a first image of the surrounding environment in which the intelligent terminal is located, and controls the first inertial sensor to capture a first image of the surrounding environment in which the intelligent terminal is located. detecting IMU data;
the main control chip acquiring a first image of the surrounding environment in which the intelligent terminal is located, taken by the first imaging device;
the main control chip acquiring IMU data of the intelligent terminal body detected by the first inertial sensor;
The method for spatial positioning of an intelligent terminal, characterized in that the main control chip calculates the IMU data of the intelligent terminal body and the first image to generate spatial positioning information of the intelligent terminal.
前記インテリジェント端末がハンドヘルドデバイスハンドルに通信接続された場合、前記インテリジェント端末の空間位置決め方法は、
前記機能切り替えモジュールが、前記インテリジェント端末をハンドヘルドデバイス機能に切り替えるステップと、
前記主制御チップが、前記第1撮像装置を制御して前記ハンドヘルドデバイスハンドルに位置する第1赤外線センサを撮影し、前記ハンドヘルドデバイスハンドルに位置する第2慣性センサを制御して前記ハンドヘルドデバイスハンドルのIMUデータを検出するステップと、
前記主制御チップが、前記第1撮像装置によって伝送された前記第1赤外線センサの第1光点画像、及び前記第2慣性センサによって伝送された前記ハンドヘルドデバイスハンドルのIMUデータを取得し、前記インテリジェント端末の空間位置決め情報、前記第1光点画像及び前記ハンドヘルドデバイスハンドルのIMUデータを計算して、前記ハンドヘルドデバイスハンドルの空間位置決め情報を生成するステップと、さらに含むことを特徴とする請求項14に記載のインテリジェント端末的空間位置決め方法。
When the intelligent terminal is communicatively connected to a handheld device handle, the spatial positioning method of the intelligent terminal comprises:
the functionality switching module switching the intelligent terminal to handheld device functionality;
The main control chip controls the first imaging device to take an image of a first infrared sensor located on the handheld device handle, and controls a second inertial sensor located on the handheld device handle to take an image of the handheld device handle. detecting IMU data;
The main control chip acquires a first light spot image of the first infrared sensor transmitted by the first imaging device and IMU data of the handheld device handle transmitted by the second inertial sensor, and 15. The method of claim 14, further comprising: calculating spatial positioning information of a terminal, the first light spot image, and IMU data of the handheld device handle to generate spatial positioning information of the handheld device handle. Intelligent terminal spatial positioning method described.
前記インテリジェント端末が仮想頭部装着ディスプレイ機器に取り付けられ、前記インテリジェント端末が仮想操作ハンドルに通信接続された場合、前記インテリジェント端末の空間位置決め方法は、
前記機能切り替えモジュールが、前記インテリジェント端末を仮想頭部装着ディスプレイ機能に切り替えるステップと、
前記制御チップが、前記第1撮像装置を制御して前記仮想操作ハンドルに位置する第2赤外線センサを撮影し、前記仮想操作ハンドルに位置する第3慣性センサを制御して前記仮想操作ハンドルのIMUデータを検出するステップと、
前記主制御チップが、前記第1撮像装置によって伝送された前記第2赤外線センサの第2光点画像、及び第2慣性センサによって伝送された前記仮想操作ハンドルのIMUデータを取得し、前記インテリジェント端末の空間位置決め情報、前記第2光点画像及び前記仮想操作ハンドルのIMUデータを計算して、前記仮想操作ハンドルの空間位置決め情報を生成するステップと、をさらに含むことを特徴とする請求項14に記載のインテリジェント端末の空間位置決め方法。
When the intelligent terminal is attached to a virtual head-mounted display device, and the intelligent terminal is communicatively connected to a virtual operating handle, the spatial positioning method of the intelligent terminal comprises:
the function switching module switching the intelligent terminal to a virtual head mounted display function;
The control chip controls the first imaging device to take an image of a second infrared sensor located on the virtual operating handle, and controls a third inertial sensor located on the virtual operating handle to capture an IMU of the virtual operating handle. detecting data;
The main control chip acquires a second light spot image of the second infrared sensor transmitted by the first imaging device and IMU data of the virtual operating handle transmitted by a second inertial sensor, and controls the intelligent terminal. 15. The method further comprises: calculating spatial positioning information of the virtual operating handle, the second light spot image, and IMU data of the virtual operating handle to generate spatial positioning information of the virtual operating handle. The spatial positioning method of intelligent terminals described.
JP2023019232A 2022-07-29 2023-02-10 Intelligent terminal, handheld device, virtual system and intelligent terminal spatial positioning method Pending JP2024018887A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210907490.8A CN115253275A (en) 2022-07-29 2022-07-29 Intelligent terminal, palm machine, virtual system and space positioning method of intelligent terminal
CN202210907490.8 2022-07-29

Publications (1)

Publication Number Publication Date
JP2024018887A true JP2024018887A (en) 2024-02-08

Family

ID=83771689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023019232A Pending JP2024018887A (en) 2022-07-29 2023-02-10 Intelligent terminal, handheld device, virtual system and intelligent terminal spatial positioning method

Country Status (2)

Country Link
JP (1) JP2024018887A (en)
CN (1) CN115253275A (en)

Also Published As

Publication number Publication date
CN115253275A (en) 2022-11-01

Similar Documents

Publication Publication Date Title
JP5981591B1 (en) Computer program and computer system for controlling object operations in an immersive virtual space
CN102681958B (en) Use physical gesture transmission data
EP2984634B1 (en) Holographic snap grid
EP3470966B1 (en) Orientation and/or position estimation system, orientation and/or position estimation method, and orientation and/or position estimation apparatus
TW201911133A (en) Controller tracking for multiple degrees of freedom
JP6357023B2 (en) Information processing program, information processing apparatus, information processing apparatus control method, and information processing system
JP6242039B2 (en) Apparatus and method for gyro controlled game viewpoint with automatic centering function
EP2466440B1 (en) Display control program, display control apparatus, display control system, and display control method
CN108885487B (en) Gesture control method of wearable system and wearable system
JP6959703B2 (en) Virtual reality headset stand
JP2007047294A (en) Stereoscopic image display device
CN111897429A (en) Image display method, image display device, computer equipment and storage medium
EP3037936B1 (en) Image projection apparatus, and system employing interactive input-output capability
KR20170105334A (en) Camera module
US20220351442A1 (en) Animation production system
JP6219037B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2024018887A (en) Intelligent terminal, handheld device, virtual system and intelligent terminal spatial positioning method
KR102572675B1 (en) Method and electronic device for adaptively configuring user interface
WO2019106862A1 (en) Operation guiding system
JP2013246719A (en) Information processing program, information processing device, information processing system and information processing method
US20240036637A1 (en) Spatial positioning method of separate virtual system, separate virtual system
US20240033614A1 (en) Positioning method and locator of combined controller, controller handle and virtual system
JP2005150781A (en) Camera control apparatus, camera control method, and recording medium for camera control method
WO2023221929A1 (en) Image display method and apparatus, electronic device, and storage medium
JP2020204973A (en) Information processing device, program, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240214