JP2023502552A - WEARABLE DEVICE, INTELLIGENT GUIDE METHOD AND APPARATUS, GUIDE SYSTEM, STORAGE MEDIUM - Google Patents

WEARABLE DEVICE, INTELLIGENT GUIDE METHOD AND APPARATUS, GUIDE SYSTEM, STORAGE MEDIUM Download PDF

Info

Publication number
JP2023502552A
JP2023502552A JP2021564133A JP2021564133A JP2023502552A JP 2023502552 A JP2023502552 A JP 2023502552A JP 2021564133 A JP2021564133 A JP 2021564133A JP 2021564133 A JP2021564133 A JP 2021564133A JP 2023502552 A JP2023502552 A JP 2023502552A
Authority
JP
Japan
Prior art keywords
scene image
information
scene
wearable device
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021564133A
Other languages
Japanese (ja)
Inventor
曹莉
向▲許▼波
▲しぇ▼忠▲華▼
▲劉▼▲錦▼金
▲張▼英宜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2023502552A publication Critical patent/JP2023502552A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5048Audio interfaces, e.g. voice or music controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Vascular Medicine (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

本出願は、ウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステムを提供する。本出願の実施例は、光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物検出の精度及びガイドの安全性が向上する。The present application provides wearable devices, intelligent guiding methods and apparatus, and guiding systems. An embodiment of the present application uses the second scene image captured by the second visible light capturing unit to obtain the depth information of the object in the scene when the light irradiation intensity is high, that is, when the brightness of the first scene image is high. and determining the depth information of the object in the scene using the second scene image captured by the depth capturing unit when the light irradiation intensity is low, ie, the brightness of the first scene image is low. According to the irradiation intensity of the ambient light, the images collected by different parts are selected to realize the guidance service for the target object, effectively adapting to the changes in the light irradiation intensity, and enriching the environment Information can be obtained and, at the same time, texture-lacking obstacles can be detected, resulting in improved obstacle detection accuracy and guide safety.

Description

(関連出願への相互参照)
本出願は、出願番号が202011060870.Xで、出願日が2020年9月30日で、出願名称が「ウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステム」である中国特許出願に基づいて提出され、当該中国特許出願の優先権を主張し、当該中国特許の全ての内容がここで参照により本開示に組み込まれる。
(Cross reference to related application)
This application has application number 202011060870. X, filed based on a Chinese patent application with a filing date of September 30, 2020 and titled “Wearable Device, Intelligent Guidance Method and Apparatus, Guidance System” and claiming priority of the Chinese patent application. and the entire content of the Chinese patent is hereby incorporated into the present disclosure by reference.

本出願は、画像処理技術分野に関し、特にウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステム、記憶媒体に関する。 TECHNICAL FIELD The present application relates to the field of image processing technology, and more particularly to wearable devices, intelligent guide methods and devices, guide systems, and storage media.

視力障害者の数が膨大であり、この部分の人々の外出范囲が制限され、活動範囲が小さく、外出中に大きな安全のリスクが存在し、この部分の人々の生活品質が悪い。 The number of visually impaired people is huge, people in this segment have limited travel, their range of activities is small, there are great safety risks while they are out and about, and the quality of life of people in this segment is poor.

既存の盲導技術は、カメラの環境への適応能力が低く、光照射強度の変化が大きい場面にうまく適応できないため、光照射強度の変化が大きい場合、豊かな環境情報を取得することができず、テクスチャが欠け、外観が滑らかで、透明度が高く、又は距離が遠い障害物を効果的に検出することができない。したがって、既存の盲導技術は、障害物を正確に検出することができず、視覚障害者のために安全性の高い盲導サービスを提供することができない。 Existing blind-guiding technology has a low ability to adapt to the environment of the camera and cannot adapt well to scenes with large changes in light irradiation intensity. , texture-less, smooth-appearing, highly transparent, or distant obstacles cannot be effectively detected. Therefore, the existing blind-guiding technology cannot accurately detect obstacles and cannot provide highly safe blind-guiding services for the visually impaired.

本出願の実施例は、深度情報の検出精度、ガイドの精度及び安全性を向上させるように、少なくともウェアラブルデバイスによるインテリジェントガイド方法及び装置、ウェアラブルデバイス、ガイドシステム、記憶媒体を提供する。 Embodiments of the present application provide at least a wearable device intelligent guiding method and apparatus, a wearable device, a guiding system, and a storage medium, so as to improve depth information detection accuracy, guiding accuracy and safety.

第1態様では、本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド方法を提供し、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記方法は、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む。
In a first aspect, embodiments of the present application provide an intelligent guiding method by a wearable device, the wearable device comprising a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit, the method comprising: ,
obtaining a first scene image acquired by the first visible light imaging unit;
detecting the brightness of the first scene image;
obtaining a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; obtaining a second scene image captured by the depth capture unit in response to the brightness of the scene image not meeting a preset brightness;
determining depth information of an object in the scene based on the second scene image;
generating guide information for a target object wearing the wearable device based on the depth information.

この解決策は、光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。これにより、環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。 This solution uses the second scene image captured by the second visible light capture unit to determine the depth information of the object in the scene when the light irradiation intensity is high, i.e. when the brightness of the first scene image is high. On the other hand, if the light irradiation intensity is low, that is, if the brightness of the first scene image is low, the second scene image captured by the depth capturing unit is used to determine the depth information of the object in the scene. Thus, according to the irradiation intensity of the ambient light, it is possible to select the images collected by different parts to provide a guide service for the target object, effectively adapt to the changes in the light irradiation intensity, Rich environment information can be obtained, and at the same time, texture-less obstacles can be detected, resulting in improved obstacle detection accuracy and guide safety.

1つの可能な実施形態では、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含む。
In one possible embodiment, acquiring a second scene image collected by said second visible light imager in response to the luminance of said first scene image meeting a preset luminance. teeth,
transmitting a first exposure command to the second visible light photographing unit in response to the fact that the luminance of the first scene image satisfies a preset luminance; acquiring a second scene image acquired with exposure control based on the exposure command;
obtaining a second scene image acquired by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
sending a second exposure command to the depth photographing unit in response to the fact that the luminance of the first scene image does not satisfy a preset luminance, and the depth photographing unit performs exposure based on the second exposure command; The step of obtaining a controlled and acquired second scene image is included.

この実施形態では、光照射強度が大きい時に、露光を行うように第2可視光撮影部を制御し、光照射強度が小さい場合、露光を行うように深度撮影部を制御することにより、環境光の強度に応じて異なる撮影部を切り替えて、対象の深度情報を確定するための第2場面画像を収集することを実現し、光照射強度の変化に能動的に適応し、より豊かな環境情報を取得することができ、同時に、クスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。 In this embodiment, the second visible light imaging unit is controlled to perform exposure when the light irradiation intensity is high, and the depth imaging unit is controlled to perform exposure when the light irradiation intensity is low. According to the intensity of the light, the different shooting units can be switched to acquire the second scene image for determining the depth information of the object, actively adapting to the change in the light irradiation intensity, and enriching the environment information. can be obtained, and at the same time, obstacles lacking texture can be detected, resulting in improved obstacle detection accuracy and guide safety.

1つの可能な実施形態では、前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップと、を含む。
In one possible embodiment, determining depth information of an object in the scene based on said second scene image comprises:
pixel points for representing objects within the scene in the first scene image and within the scene in the second scene image in response to the luminance of the first scene image meeting a preset luminance; matching pixel points to represent objects of to obtain pixel point pairs;
based on the parallax information corresponding to the pixel point pair, the center distance between the first visible light imaging unit and the second visible light imaging unit, and the focal length of the first visible light imaging unit, and determining depth information for the object of .

この実施形態では、光照射強度が強い場合、第1可視光撮影部によって収集された第1場面画像と第2可視光撮影部によって収集された第2場面画像を組み合わせることにより、場面内の対象の深度情報をより正確に確定することができる。 In this embodiment, when the light irradiation intensity is high, by combining the first scene image acquired by the first visible light imaging unit and the second scene image acquired by the second visible light imaging unit, the object in the scene depth information can be determined more accurately.

1つの可能な実施形態では、前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含む。
In one possible embodiment, determining depth information of an object in the scene based on said second scene image comprises:
determining a target pixel point of a scene object in the second scene image in response to the luminance of the first scene image not meeting a preset luminance;
determining depth information of an object in the scene based on depth information of the target pixel point in the second scene image.

この実施形態では、光照射強度が弱い場合、深度撮影部によって収集された深度画像、即ち深度撮影部によって収集された第2場面画像内の画素点の深度情報を使用することにより、場面内の対象の深度情報をより正確に確定することができ、クスチャが欠けている障害物を検出することができ、その結果、光照射強度が弱い場合の障害物の検出精度及びガイドの安全性が向上する。 In this embodiment, when the light illumination intensity is weak, the depth image collected by the depth capture unit, that is, the depth information of the pixel points in the second scene image collected by the depth capture unit can be used to obtain Depth information of the object can be determined more accurately, and obstacles lacking texture can be detected, resulting in improved obstacle detection accuracy and guiding safety when light irradiation intensity is weak. do.

1つの可能な実施形態では、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含む。
In one possible embodiment, generating guide information for a target object wearing said wearable device based on said depth information comprises:
generating notification information, said notification information being used to notify said target subject wearing said wearable device of said depth information.

この実施形態では、目標対象に場面内の対象の深度情報を通知することにより、目標対象の動作を効果的にガイドし、ガイド効率及びガイドの安全性を向上させることができる。 In this embodiment, by informing the target object of the depth information of the object in the scene, the target object's motion can be effectively guided, and the guiding efficiency and the safety of the guiding can be improved.

1つの可能な実施形態では、前記方法は、
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含む。
In one possible embodiment, the method comprises:
further comprising determining directional position information of an object in the scene relative to the wearable device based on the first scene image;
generating guide information for a target object wearing the wearable device based on the depth information;
generating guide information for a target object wearing the wearable device based on directional position information of the object in the scene and depth information of the object in the scene relative to the wearable device.

この実施形態では、方向位置情報及び深度情報に基づいて、目標対象のために情報量がより大きく、内容がより豊かなガイド情報を生成することができ、これにより、ガイドの効率及びガイドの安全性をさらに向上させることができる。 In this embodiment, based on the directional position information and the depth information, guide information with a larger amount of information and richer content can be generated for the target object, thereby improving the efficiency of the guide and the safety of the guide. It is possible to further improve the performance.

1つの可能な実施形態では、前記ウェアラブルデバイスは、超音波検出部をさらに含む。 In one possible embodiment, said wearable device further comprises an ultrasound detector.

前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含む。
The method includes:
in response to detecting that the depth corresponding to the depth information is greater than a preset depth threshold and/or that the first scene image contains a preset type of object, the ultrasound transmitting an ultrasound detection command to a detection unit and receiving an ultrasound feedback signal detected by the ultrasound detection unit based on the ultrasound detection command;
and updating depth information of objects in the scene based on the received ultrasound feedback signals.

この実施形態では、環境が複雑であるため、又は物体自体の特性の影響により、可視光撮影部又は深度撮影部によって撮影された第2場面画像から場面内の対象の深度情報を正確に確定することができなくなり、又は、第1場面画像に透明さが高く、又は外観が比較的滑らかいなどの特性の対象が含まれていることを検出した場合、超音波検出部を使用して深度情報を検出することにより、ウェアラブルデバイスの適用性が向上し、より複雑な環境で場面内の対象の深度情報をより正確に検出することが可能になる。 In this embodiment, due to the complexity of the environment or the influence of the properties of the object itself, the depth information of the object in the scene is accurately determined from the second scene image captured by the visible light imager or the depth imager. or detect that the first scene image contains objects with characteristics such as high transparency or relatively smooth appearance, the ultrasonic detector is used to obtain depth information. Detecting , improves the applicability of wearable devices, enabling them to more accurately detect depth information of objects in a scene in more complex environments.

1つの可能な実施形態では、前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含む。
In one possible embodiment, the wearable device further comprises a posture measuring unit,
The method includes:
obtaining posture information of the wearable device collected by the posture measurement unit;
generating posture correction notification information in response to determining, based on the posture information, that the posture of the target subject wearing the wearable device is in a first preset posture. include.

この実施形態では、姿勢測定部によって測定されたウェアラブルデバイスの姿勢情報により、目標対象の姿勢が第1予め設定された姿勢にある場合、姿勢を矯正するように目標対象に促すための姿勢矯正通知情報を生成することができ、これにより、ウェアラブルデバイスは、目標対象の動作に影響を与える対象を撮影することができ、ガイド情報の精度及びガイドの安全性がさらに向上する。 In this embodiment, when the posture information of the wearable device measured by the posture measuring unit indicates that the posture of the target object is in a first preset posture, a posture correction notification for prompting the target object to correct the posture. Information can be generated that allows the wearable device to photograph objects that affect the target object's movement, further improving the accuracy of the guide information and the safety of the guide.

1つの可能な実施形態では、前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報と場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含む。
In one possible embodiment, the method comprises:
determining directional position information of an object in the scene relative to the wearable device based on the first scene image;
converting the directional position information into directional position information of an object in the scene with respect to the wearable device in a second preset pose based on the wearable device pose information;
generating guide information for a target object wearing the wearable device based on the depth information;
generating guide information and/or posture correction notification information for the target object wearing the wearable device based on the converted direction position information and the depth information of the object in the scene.

この実施形態では、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換し、即ち目標対象の動作に効果的な方向位置情報を生成し、当該効果的な情報を使用してより正確及び効果的なガイド情報を生成することができる。 In this embodiment, the directional position information of an object in the scene with respect to the wearable device is converted into the directional position information of the object in the scene with respect to the wearable device in a second preset pose, i.e. This effective information can be used to generate more accurate and effective guide information.

1つの可能な実施形態では、前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含む。
In one possible embodiment, the wearable device further comprises an audio output,
The method includes:
Further comprising generating audio navigation information based on the guide information, transmitting the audio navigation information to the audio output, and playing the audio navigation information to the target object at the audio output.

この実施形態では、音声ナビゲーション情報と音声出力部により、障害物を回避するように目標対象を効果的にガイドすることができ、ガイドの効率及びガイドの安全性が向上する。 In this embodiment, the voice navigation information and the voice output unit can effectively guide the target object to avoid obstacles, improving the efficiency of the guidance and the safety of the guidance.

1つの可能な実施形態では、前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するステップを含む。
In one possible embodiment, the wearable device further comprises a divider circuit,
obtaining a second scene image acquired by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness;
transmitting an exposure command to the frequency dividing circuit in response to the luminance of the first scene image meeting a preset luminance, and dividing the exposure command received by the frequency dividing circuit; and transmits the third exposure command obtained by the frequency dividing process to the second visible light imaging unit, and the second visible light imaging unit performs exposure control based on the third exposure command and collects the second capturing a scene image and/or responsive to the brightness of the first scene image failing to meet a preset brightness, capturing a second scene image captured by the depth capture unit. The step is
transmitting an exposure command to the frequency dividing circuit in response to the fact that the luminance of the first scene image does not meet a preset luminance; and dividing the received exposure command by the frequency dividing circuit. and transmitting the fourth exposure command obtained by the frequency dividing process to the depth photographing unit, and the depth photographing unit performs exposure control based on the fourth exposure command to acquire the collected second scene image. including.

この実施形態では、分周回路を使用して露光命令を分割し、分周処理により得られた露光命令を使用して、画像を収集するように第2可視光撮影部又は深度撮影部を制御することにより、同時に露光するように異なるフレーム周波数の撮影部を制御することを実現し、エネルギー消費が節約される。 In this embodiment, a frequency divider circuit is used to divide the exposure command, and the exposure command resulting from the frequency dividing process is used to control the second visible light imager or depth imager to acquire an image. By doing so, it is realized to control the photographing units of different frame frequencies to expose at the same time, saving energy consumption.

第2態様では、本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド装置を提供し、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える。
In a second aspect, embodiments of the present application provide an intelligent guide apparatus by a wearable device, the wearable device comprising a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit, the apparatus comprising: ,
a first image acquisition module configured to acquire a first scene image acquired by the first visible light imaging unit;
a luminance detection module configured to detect luminance of the first scene image;
configured to acquire a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; and/or a second image acquisition module configured to acquire a second scene image captured by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
a detection module configured to determine depth information of an object in the scene based on the second scene image;
a guide information generation module configured to generate guide information for a target subject wearing the wearable device based on the depth information.

第3態様では、本出願の実施例は、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含むウェアラブルデバイスを提供し、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。
In a third aspect, embodiments of the present application provide a wearable device that includes a processing unit, a first visible light imager, a second visible light imager, and a depth imager,
the first visible light imaging unit is configured to acquire a first scene image;
the second visible light imager and the depth imager configured to acquire a second scene image;
The processing unit is configured to perform the wearable device intelligent guidance method described above.

1つの可能な実施形態では、上記ウェアラブルデバイスは、信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は、前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成される。
In one possible embodiment, the wearable device further comprises a signal serial part, a signal transmission cable and a signal deserial part,
The signal serial unit is communicatively connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit, and both ends of the signal transmission cable are connected to the signal serial unit and the signal deserial unit, respectively. , the signal deserialization unit is communicatively connected to the processing unit;
the first visible light imaging unit is further configured to transmit the first scene image to the signal serial unit;
the second visible light imaging unit and the depth imaging unit are further configured to transmit the second scene image to the signal serial unit;
The signal serial unit is configured to convert the received first scene image and the second scene image into a serial signal and transmit the serial signal to the signal deserial unit via the signal transmission cable;
The signal deserialization unit is configured to deserialize a received signal and transmit the deserialized signal to the processing unit.

この実施形態では、信号シリアル部を使用して、撮影部によって撮影された画像をシリアル信号、例えばツイストペア線高速差分信号に変換して伝送することにより、信号を2本のケーブルだけで伝送することができ、伝送速度がより速く、コストがより低く、伝送距離がより長く、部の体積がより小さい。 In this embodiment, the signal serial unit is used to convert the image captured by the imaging unit into a serial signal, for example, a twisted-pair line high-speed differential signal and transmit the signal, thereby enabling the signal to be transmitted using only two cables. , faster transmission speed, lower cost, longer transmission distance and smaller volume.

1つの可能な実施形態では、前記深度撮影部は、TOFカメラを含む。 In one possible embodiment, the depth capture includes a TOF camera.

この実施形態では、TOFカメラを使用すると、光照射強度が弱い場合、場面内の対象の深度情報をより正確に取得することができる。 In this embodiment, the TOF camera can be used to obtain more accurate depth information of objects in the scene when the illumination intensity is low.

第4態様では、本出願の実施例は、ウェアラブルデバイス及びホストコンピュータを含むガイドシステムを提供し、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。
In a fourth aspect, embodiments of the present application provide a guidance system including a wearable device and a host computer,
The wearable device includes a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
The host computer includes a processing unit, the processing unit is connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit via a signal transmission cable, and the processing unit includes the above The wearable device is configured to perform an intelligent guidance method.

1つの可能な実施形態では、前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられている。 In one possible embodiment, the host computer is provided with at least one of a positioning module connected to the processing unit, a network module, a microcontrol unit for operating state detection and/or charge management, an audio module. It is

第5態様では、本出願の実施例は、プロセッサ、メモリ及びバスを含み、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリがバスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、上記インテリジェントガイド方法のステップを実行する電子デバイスを提供する。 In a fifth aspect, embodiments of the present application include a processor, a memory and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when an electronic device operates, the processor and the A memory communicates over a bus to provide an electronic device for performing the steps of the intelligent guide method when said machine readable instructions are executed by said processor.

第6態様では、本出願の実施例は、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に、上記インテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体を提供する。 In a sixth aspect, embodiments of the present application provide a computer readable storage medium having a computer program stored therein for performing the steps of the above intelligent guide method when the computer program is executed by a processor.

第7態様では、本出願の実施例は、プロセッサによってロードされてインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品を提供する。 In a seventh aspect, embodiments of the present application provide a computer program product comprising one or more instructions suitable for being loaded by a processor to perform the steps of the intelligent guide method.

本出願の上記目的、特徴及び利点がより明確且つ理解しやすくなるために、以下に好ましい実施例を特に挙げて、添付の図面を組み合わせて詳しく説明する。 In order to make the above objects, features and advantages of the present application clearer and easier to understand, preferred embodiments will be particularly mentioned below and described in detail in combination with the accompanying drawings.

本出願の実施例によるウェアラブルデバイスによるインテリジェントガイド方法のフローチャートである。4 is a flow chart of an intelligent guidance method by a wearable device according to an embodiment of the present application; 本出願の実施例によるウェアラブルデバイスの構造概略図である。1 is a structural schematic diagram of a wearable device according to an embodiment of the present application; FIG. 本出願の実施例によるガイドシステムの構造概略図である。1 is a structural schematic diagram of a guide system according to an embodiment of the present application; FIG. 本出願の実施例による電子デバイスの概略図である。1 is a schematic diagram of an electronic device according to an embodiment of the present application; FIG. 本出願の実施例によるウェアラブルデバイスによるインテリジェントガイド装置の構造概略図である。1 is a structural schematic diagram of an intelligent guide device by a wearable device according to an embodiment of the present application; FIG.

本出願の実施例における技術的解決策をより明確に説明するために、以下に実施例に必要な図面を簡単に説明するが、ここでの図面は、明細書に組み込まれて明細書の一部を構成し、これらの図面は、本出願に合致する実施例を示し、本明細書とともに本出願の技術的解決策を説明するために用いられる。以下の図面が本出願のいくつかの実施例のみを示すため、範囲を制限するためのものと見なされるべきではなく、当業者にとって、創造的な労働をすることなく、これらの図面に基づいて他の関連する図面を取得することができることを理解すべきである。 In order to describe the technical solutions in the embodiments of the present application more clearly, the drawings required for the embodiments are briefly described below, and the drawings here are incorporated into the specification and are part of the specification. These drawings, which constitute a part, show embodiments consistent with the present application and are used together with the description to explain the technical solutions of the present application. As the following drawings show only some embodiments of the present application, they should not be considered as limiting the scope, and a person skilled in the art can, without creative effort, It should be understood that other relevant drawings may be obtained.

本出願の実施例の目的、技術的解決策と利点をより明確にするために、以下に本出願の実施例の図面と組み合わせて、本出願の実施例における技術的解決策を明確かつ全面的に説明し、明らかに、説明される実施例は、本出願の実施例の一部だけであり、全ての実施例ではない。通常、本明細書の図面に記載及び図示されている本出願の実施例の構成要素は、様々な異なる構成で配置及び設計されてもよい。したがって、添付の図面に提供される本出願の実施例の詳細な説明は、保護が要求される本出願の範囲を制限することを意図するものではなく、本出願の選択された実施例を示すものだけである。本出願の実施例に基づき、当業者が創造的な労力を要せずに得る他の実施例は、全て本出願の保護範囲に属する。 In order to make the purpose, technical solutions and advantages of the embodiments of the present application clearer, the following is combined with the drawings of the embodiments of the present application to clearly and comprehensively present the technical solutions in the embodiments of the present application. , and apparently the described embodiments are only some of the embodiments of the present application and not all of the embodiments. In general, the components of the embodiments of the present application described and illustrated in the drawings herein may be arranged and designed in a variety of different configurations. Accordingly, the detailed descriptions of embodiments of the present application provided in the accompanying drawings are not intended to limit the scope of the application for which protection is sought, but rather show selected embodiments of the application. Only things. Other embodiments that a person skilled in the art can obtain without creative efforts based on the embodiments of the present application shall all fall within the protection scope of the present application.

なお、類似の記号及び文字が以下の添付図面で類似のアイテムを表し、したがって、あるアイテムが1つの添付図面で定義されると、後の図面でそれをさらに定義及び解釈する必要がない。 It should be noted that similar symbols and letters represent similar items in the following accompanying drawings, so that once an item is defined in one accompanying drawing, it need not be further defined and interpreted in subsequent drawings.

本明細書では「及び/又は」という用語は、関連関係を説明するためのものだけであり、3種類の関係が存在できることを示し、例えば、A及び/又はBは、Aが単独で存在すること、A及びBが同時に存在すること、Bが単独で存在することの3つの状況を示すことができる。また、本明細書では「少なくとも1種類」という用語は、複数の種類のうちの任意の1種類又は複数の種類のうちの少なくとも2種類の任意の組み合わせを示し、例えば、A、B、Cのうちの少なくとも1種類を含むことは、A、BとCからなるセットから選択された任意の1つ又は複数の要素を含むことを示すことができる。 As used herein, the term "and/or" is only for describing association relationships and indicates that three types of relationships can exist, e.g., A and/or B where A exists alone , that A and B exist simultaneously, and that B exists alone. In addition, the term "at least one type" as used herein indicates any one type out of a plurality of types or any combination of at least two types out of a plurality of types, e.g. Including at least one of can indicate including any one or more elements selected from the set consisting of A, B and C.

本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド方法及び装置、ウェアラブルデバイス、ガイドシステム、電子デバイス及び記憶媒体を提供する。光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。これにより、環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。 Embodiments of the present application provide a wearable device intelligent guidance method and apparatus, a wearable device, a guidance system, an electronic device and a storage medium. When the light irradiation intensity is high, that is, when the brightness of the first scene image is high, the second scene image captured by the second visible light imaging unit is used to determine the depth information of the object in the scene, and the light irradiation intensity is is small, ie, the brightness of the first scene image is low, the second scene image captured by the depth capture unit is used to determine the depth information of the objects in the scene. Thus, according to the irradiation intensity of the ambient light, it is possible to select the images collected by different parts to provide a guide service for the target object, effectively adapt to the changes in the light irradiation intensity, Rich environment information can be obtained, and at the same time, texture-less obstacles can be detected, resulting in improved obstacle detection accuracy and guide safety.

以下、本出願によって提供されるウェアラブルデバイスによるインテリジェントガイド方法及び装置、ウェアラブルデバイス、ガイドシステム、電子デバイス及び記憶媒体の実施例を説明する。 Hereinafter, embodiments of the wearable device intelligent guidance method and apparatus, wearable device, guidance system, electronic device and storage medium provided by the present application will be described.

本出願によって提供されるウェアラブルデバイスによるインテリジェントガイド方法は、処理部に適用されてもよく、当該処理部は、ウェアラブルデバイス上の1つの部品であってもよいし、1つのホストコンピュータに単独で位置してもよい。ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含む。 The wearable device intelligent guidance method provided by the present application may be applied to a processing unit, which may be a component on the wearable device or may be located alone in a host computer. You may The wearable device includes a first visible light imager, a second visible light imager and a depth imager.

前記処理部は、前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に通信接続されている。ウェアラブルデバイスは、頭部着用デバイスとして目標対象の頭部に着用される。第1可視光撮影部、第2可視光撮影部及び深度撮影部を目標対象の頭部に着用される頭部着用デバイスに組み合わせることができる。処理部は、目標対象の他の部位に着用又は固定され、例えば目標対象の腕などに着用される。本出願の実施例では、目標対象上の上記各部の位置を限定しない。 The processing unit is communicatively connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit. A wearable device is worn on the target subject's head as a head-worn device. The first visible light imager, the second visible light imager and the depth imager may be combined in a head-worn device worn on the head of the target subject. The processing unit is worn or fixed to another part of the target subject, such as the arm of the target subject. The embodiments of the present application do not limit the location of the above parts on the target object.

上記目標対象は、視力障害の対象であってもよい。本出願の実施例によって提供されるガイド情報を使用すると、障害物を回避して安全に歩くように目標対象をガイドすることができる。 The target subject may be a visually impaired subject. Guide information provided by embodiments of the present application can be used to guide a target object to walk safely around obstacles.

本出願の実施例のインテリジェントガイド方法は、場面内の対象の深度情報を検出し、検出によって得られた深度情報に基づいてガイド情報を生成するために使用される。図1に示すように、上記のウェアラブルデバイスによるインテリジェントガイド方法は、以下のステップを含むことができる。 The intelligent guide method of the embodiments of the present application is used to detect depth information of objects in a scene and generate guide information based on the depth information obtained by the detection. As shown in FIG. 1, the wearable device intelligent guiding method described above can include the following steps.

S110、第1可視光撮影部によって収集された第1場面画像を取得する。 S110, obtaining a first scene image captured by the first visible light capturing unit;

前記第1可視光撮影部は、前記ウェアラブルデバイスの周囲の第1場面画像を撮影し、前記処理部を送信するように構成される。第1可視光撮影部が場面画像を撮影するフレームレートが高いため、撮影された第1場面画像内の対象の位置に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定することができる。 The first visible light capturing unit is configured to capture a first scene image around the wearable device and transmit the processing unit. Since the frame rate at which the first visible light capturing unit captures the scene image is high, it is possible to determine the orientation position information of the object in the scene with respect to the wearable device based on the position of the object in the captured first scene image. can.

第1可視光撮影部は、赤緑青(RGB:Red Green Blue)撮影部であってもよい。 The first visible light imager may be a Red Green Blue (RGB) imager.

S120、前記第1場面画像の輝度を検出する。 S120, detecting the brightness of the first scene image;

ここで、複数の画像輝度検出方法を使用して検出することができ、例えば、予めトレーニングされたニューラルネットワークを使用して第1場面画像の輝度を検出し、又は、第1場面画像内の各エリア又は各画素点の輝度に対して分布統計を行い、又は平均値を計算し、第1場面画像の輝度を取得することができる。 Here, multiple image brightness detection methods can be used to detect, for example, using a pre-trained neural network to detect the brightness of the first scene image, or each A distribution statistic can be performed on the brightness of the area or each pixel point, or an average value can be calculated to obtain the brightness of the first scene image.

第1場面画像の輝度は、現在の場面の光照射強度を表すことができ、光照射強度が強いほど、第1場面画像の輝度が高くなり、逆に、光照射強度が弱いほど、第1場面画像の輝度が低くなる。したがって、第1場面画像の輝度に基づいて現在の場面の光照射強度の強弱を判断し、さらに第2可視光撮影部によって収集された画像又は深度撮影部によって収集された画像を選択することを確定してさらに場面の深度情報を計算して、光照射強度の変化に適応し、対象の深度情報の検出精度及び生成されたガイド情報の精度を向上させることができる。 The luminance of the first scene image can represent the light irradiation intensity of the current scene. The stronger the light irradiation intensity, the higher the luminance of the first scene image. The brightness of the scene image is reduced. Therefore, it is recommended to determine the strength of the light irradiation intensity of the current scene based on the brightness of the first scene image, and further select the image acquired by the second visible light imaging unit or the image acquired by the depth imaging unit. Once established, the depth information of the scene can be further calculated to adapt to changes in light illumination intensity and improve the detection accuracy of the depth information of the object and the accuracy of the generated guide information.

S130、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する。 S130, acquiring a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; and/or Obtaining a second scene image collected by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness.

第1場面画像の輝度が予め設定された輝度を満たしている場合、現在の場面の光照射強度が大きく、このときに第2可視光撮影部から第2場面画像を取得することができる。 When the brightness of the first scene image satisfies the preset brightness, the light irradiation intensity of the current scene is high, and at this time the second scene image can be obtained from the second visible light imaging unit.

光照射強度が強い場合、可視光撮影部のイメージング効果が高いため、2つの可視光撮影部によって収集された場面画像を使用して場面内の対象の深度情報を確定することができる。光強度が弱い場合、2つの可視光撮影部のイメージング効果が低く、正確な深度情報を取得することができない。このとき、深度撮影部によって収集された深度画像を使用して深度情報を取得することができる。 When the light irradiation intensity is strong, the imaging effect of the visible light camera is high, so the scene images collected by the two visible light cameras can be used to determine the depth information of the objects in the scene. When the light intensity is weak, the imaging effect of the two visible light imaging units is low, and accurate depth information cannot be obtained. At this time, the depth information can be obtained using the depth image collected by the depth imaging unit.

第1場面画像の輝度が予め設定された輝度を満たしている場合、現在の場面の光照射強度が弱く、このとき、深度撮影部から前記深度撮影部から第2場面画像を取得することができる。 When the luminance of the first scene image satisfies the preset luminance, the light irradiation intensity of the current scene is weak, and at this time, the second scene image can be obtained from the depth photographing unit. .

場面の光強度が弱い場合、2つの可視光撮影部のイメージング効果が低く、正確な深度情報を取得することができなく、この時に深度撮影部によって撮影された場面画像を使用して場面内の物体の深度情報を検出することができ、これにより、光照射強度が弱いため、障害物を検出できないという問題を克服することができる。また、2つの可視光撮影部によって撮影された場面画像から空、砂漠、白い壁などのテクスチャが欠けている障害物の深度情報を効果的に検出することができないが、深度撮影部によって収集された場面画像を使用すると、テクスチャが欠けている上記障害物の深度情報を効果的に検出することができる。 When the light intensity of the scene is weak, the imaging effect of the two visible light photographing units is low, and the accurate depth information cannot be obtained. The depth information of the object can be detected, thereby overcoming the problem that obstacles cannot be detected due to weak light irradiation intensity. In addition, the depth information of obstacles lacking texture, such as the sky, desert, and white wall, cannot be effectively detected from the scene images captured by the two visible light capture units, but is collected by the depth capture unit. Using the scene image, the depth information of the obstacles lacking texture can be effectively detected.

第2可視光撮影部はRGB撮影部であってもよい。前記深度撮影部は、飛行時間(TOF:Time of Flight)イメージングに基づくカメラ、即ちTOFカメラであってもよい。TOFカメラを使用すると、光照射強度が弱い場合で場面内の対象の深度情報をより正確に取得することができる。 The second visible light imaging unit may be an RGB imaging unit. The depth imager may be a camera based on Time of Flight (TOF) imaging, ie a TOF camera. A TOF camera can be used to obtain more accurate depth information of objects in a scene when the illumination intensity is low.

S140、前記第2場面画像に基づいて場面内の対象の深度情報を確定する。 S140, determining depth information of an object in the scene based on the second scene image;

第2場面画像が第2可視光撮影部によって収集された画像である場合、両眼視覚の原理に従って、第1場面画像及び第2場面画像に基づいて画像内の物体に対応する場面内の対象の深度情報を計算することができる。現在の場面の光照射強度が強い場合、2つの可視光撮影部によって収集された2つの場面画像を使用すると、場面内の対象の深度情報をより正確に確定することができる。 If the second scene image is the image collected by the second visible light imaging unit, according to the principle of binocular vision, an object in the scene corresponding to the object in the image based on the first scene image and the second scene image depth information can be calculated. If the light illumination intensity of the current scene is high, using two scene images collected by two visible light imagers can more accurately determine the depth information of objects in the scene.

例えば、まず前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、次に前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定する。 For example, first match pixel points representing objects in the scene in the first scene image with pixel points representing objects in the scene in the second scene image to obtain pixel point pairs; based on the parallax information corresponding to the pixel point pair, the center distance between the first visible light imaging unit and the second visible light imaging unit, and the focal length of the first visible light imaging unit, Determine the depth information for the target of the .

第2場面画像が深度撮影部によって収集された深度画像である場合、深度撮影部によって感知された深度情報に基づいて場面内の対象の深度情報を直接確定することができる。 If the second scene image is a depth image captured by the depth capturer, the depth information of objects in the scene can be directly determined based on the depth information sensed by the depth capturer.

現在の場面の光照射強度が弱い場合、TOFカメラを使用すると、光照射強度が弱い場合、場面内の対象の深度情報をより正確に取得することができる。 When the light illumination intensity of the current scene is weak, the TOF camera can be used to obtain the depth information of objects in the scene more accurately when the light illumination intensity is weak.

例えば、まず前記第2場面画像内の場面内の対象の目標画素点を確定し、次に前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定する。例えば、目標検出により、第2場面画像から場面内の対象の位置を検出し、さらに検出結果に従って第2場面画像内の対応する位置にある画素点の深度情報を当該対象の深度情報として確定することができる。 For example, first determine a target pixel point of an object in the scene in the second scene image, and then, based on the depth information of the target pixel point in the second scene image, determine the depth information of the object in the scene. confirm. For example, by detecting the target, the position of the object in the scene is detected from the second scene image, and the depth information of the pixel point at the corresponding position in the second scene image is determined as the depth information of the object according to the detection result. be able to.

S150、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する。 S150, generating guide information for the target object wearing the wearable device based on the depth information.

ここで、深度情報に基づいて通知情報を生成することができ、前記通知情報は、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用される。目標対象に場面内の対象の深度情報を通知することにより、目標対象の動作を効果的にガイドし、ガイドの効率及びガイドの安全性を向上させることができる。 Here, notification information can be generated based on the depth information, and the notification information is used to notify the target subject wearing the wearable device of the depth information. By informing the target object of the depth information of the object in the scene, it is possible to effectively guide the target object's movement and improve the guiding efficiency and the guiding safety.

また、目標対象により豊かなガイド情報を提供するために、例えば目標対象に障害物の方向情報及び深度情報のガイド情報を提供するために、ここでは次のステップによってガイド情報を生成することができ、即ち、
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する。
In addition, in order to provide the target object with richer guide information, for example, to provide the target object with guide information of direction information and depth information of obstacles, the guide information can be generated by the following steps. , that is,
determining orientation position information of an object in the scene with respect to the wearable device based on the first scene image, and determining orientation position information of the object in the scene with respect to the wearable device and depth information of the object in the scene with the wearable device; generates guide information for the target wearing the .

方向位置情報及び深度情報に基づいて生成されたガイド情報によりガイドの効率及びガイドの安全性をさらに向上させることができる。 Guide information generated based on direction position information and depth information can further improve guide efficiency and guide safety.

具体的に実施するために使用される場合、第1場面画像内の対象の位置に基づいて、ウェアラブルデバイスに対する対象の方向位置情報を確定することができる。ここでは、方向位置情報は、方向位置角を含むことができ、又は、方向位置情報は、予め区画された方向位置のうちの1つを表すことができ、予め区画された方向位置は、例えば左前、右前、右前、真ん前を含むことができる。例えば、対象Aが第1場面画像の左側にあることに応答して、ウェアラブルデバイスに対する対象の方向位置情報が左前であることを確定し、対象Aが第1場面画像の右側にあることに応答して、ウェアラブルデバイスに対する対象の方向位置情報が右前であることを確定し、対象Aが第1場面画像の中央にあることに応答して、ウェアラブルデバイスに対する対象の方向位置情報が真ん前であることを確定する。 When used for specific implementations, orientation position information of the object relative to the wearable device can be determined based on the position of the object in the first scene image. Here, the directional position information may include a directional position angle, or the directional position information may represent one of the pre-divided directional positions, the pre-divided directional position being, for example, It can include front left, front right, front right, front front. For example, in response to the object A being on the left side of the first scene image, determine that the orientation position information of the object with respect to the wearable device is left front, and respond that the object A is on the right side of the first scene image. to determine that the directional position information of the object with respect to the wearable device is right front, and in response to the object A being in the center of the first scene image, the directional position information of the object with respect to the wearable device is directly in front. confirm.

いくつかの実施例では、光照射強度に基づいて異なる撮影部を切り替えて、第2場面画像を収集するステップは、具体的には次のステップによって実現されてもよい。 In some embodiments, the step of switching between different capturing units based on the light irradiation intensity to acquire the second scene image may be specifically realized by the following steps.

前記第1場面画像の輝度が予め設定された輝度を満たしている場合、即ち、現在の場面の光照射強度が強い場合、処理部は、前記第2可視光撮影部に第1露光命令を送信し、第2可視光撮影部は、第1露光命令に基づいて露光し、第2場面画像を収集する。その後、処理部は、第2可視光撮影部から第2場面画像を取得する。 If the brightness of the first scene image satisfies a preset brightness, that is, if the light irradiation intensity of the current scene is high, the processing unit sends a first exposure command to the second visible light photographing unit. Then, the second visible light photographing unit performs exposure according to the first exposure command to acquire a second scene image. After that, the processing unit acquires a second scene image from the second visible light imaging unit.

当然、第2可視光撮影部は、第2場面画像を常に収集することもできるが、処理部によって送信された第1露光命令が受信された場合、対応する時点に収集された第2場面画像を処理部に送信する。 Of course, the second visible light capture unit can always collect the second scene image, but if the first exposure command sent by the processing unit is received, the second scene image collected at the corresponding time is to the processing unit.

前記第1場面画像の輝度が予め設定された輝度を満たしていない場合、即ち現在の場面の光照射強度が弱い場合、処理部は、前記深度撮影部に第2露光命令を送信し、深度撮影部は、第2露光命令に従って露光し、第2場面画像を収集する。その後、処理部は、深度撮影部から第2場面画像を取得する。 If the brightness of the first scene image does not meet the preset brightness, that is, if the light irradiation intensity of the current scene is weak, the processing unit sends a second exposure command to the depth photography unit to perform depth photography. The unit exposes according to the second exposure instructions and acquires a second scene image. After that, the processing unit acquires a second scene image from the depth imaging unit.

当然、深度撮影部は、第2場面画像を常に収集することもできるが、処理部によって送信された第2露光命令が受信された場合、対応する時点に収集された第2場面画像を処理部に送信する。 Of course, the depth capture unit can always collect the second scene image, but if a second exposure command sent by the processing unit is received, the second scene image collected at the corresponding point in time will be acquired by the processing unit. Send to

光照射強度が大きい時に、露光を行うように第2可視光撮影部を制御し、光照射強度が小さい場合、露光を行うように深度撮影部を制御することにより、環境光の強度に応じて異なる撮影部を能動的に切り替えて、対象の深度情報を確定するための第2場面画像を収集することを実現し、それによって本出願の実施例のインテリジェントガイド方法は、光照射強度の変化に適応し、より豊かな環境情報を取得することができ、同時に、クスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。 By controlling the second visible light imaging unit to perform exposure when the light irradiation intensity is high, and controlling the depth imaging unit to perform exposure when the light irradiation intensity is low, depending on the intensity of the ambient light It is realized to actively switch different imaging units to acquire a second scene image for determining the depth information of the object, so that the intelligent guiding method of the embodiments of the present application can adapt to changes in light irradiation intensity. It can adapt and acquire richer environment information, and at the same time, it can detect obstacles lacking texture, resulting in improved obstacle detection accuracy and guide safety.

また、第2可視光撮影部によって撮影された場面画像がウェアラブルデバイスに対する場面内の対象の方向位置情報及び/又は対象の種類情報などを確定するために使用されないため、そのフレームレートが第1可視光撮影部に対して低く、このようにして深度情報検出のニーズを満たすことができるだけでなく、第2可視光撮影部の消費電力を低減し、ウェアラブルデバイスの熱放散量を減少させることができる。 In addition, since the scene image captured by the second visible light capturing unit is not used to determine the direction position information and/or the type information of the target in the scene with respect to the wearable device, the frame rate is the first visible light capturing unit. Low for the light imaging unit, thus not only can meet the needs of depth information detection, but also can reduce the power consumption of the second visible light imaging unit and reduce the heat dissipation of the wearable device. .

例えば、分周回路により第1可視光撮影部と第2可視光撮影部による異なるフレームレートでの同期的な露光を実現することができ、前記第1場面画像の輝度が予め設定された輝度を満たしている場合、処理部は、前記分周回路に露光命令を送信し、前記分周回路は、受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信する。その後、処理部は、前記第2可視光撮影部が前記第3露出命令に基づいて露出制御を行って収集した第2場面画像を、取得する。第1可視光撮影部が画像を収集するフレームレートが高いため、第1可視光撮影部は、処理部により、前記分周回路に露出命令を直接送信することができ、処理部は、前記分周回路に露光命令を送信するとともに、第1可視光撮影部に露光命令を送信する。 For example, a frequency dividing circuit can realize synchronous exposure at different frame rates by the first visible light imaging unit and the second visible light imaging unit, and the brightness of the first scene image can be adjusted to the preset brightness. If satisfied, the processing unit transmits an exposure command to the frequency dividing circuit, the frequency dividing circuit performs frequency division processing on the received exposure command, and the third exposure obtained by the frequency division processing A command is sent to the second visible light imaging unit. After that, the processing unit acquires a second scene image acquired by the second visible light imaging unit performing exposure control based on the third exposure command. Since the frame rate at which the first visible light imaging unit collects images is high, the first visible light imaging unit can directly transmit an exposure command to the frequency dividing circuit by the processing unit, and the processing unit can An exposure command is transmitted to the peripheral circuit and an exposure command is transmitted to the first visible light imaging unit.

深度撮影部の消費電力を節約するために、第1可視光撮影部の周波数よりも低い周波数で露光するように深度撮影部を制御することができ、したがって、深度撮影部によって撮影された画像のフレームレートが第1可視光撮影部よりも低く、このようにして深度情報検出のニーズを満たすことができるだけでなく、深度撮影部の電力消費を低減し、ウェアラブルデバイスの熱放散量を減少することができる。 In order to save the power consumption of the depth capturer, the depth capturer can be controlled to expose at a frequency lower than that of the first visible light capturer, thus reducing the quality of the image captured by the depth capturer. The frame rate is lower than that of the first visible light imaging unit, thus not only can meet the needs of depth information detection, but also reduce the power consumption of the depth imaging unit and reduce the heat dissipation of the wearable device. can be done.

例えば、分周回路により第1可視光撮影部と深度撮影部による異なるフレームレートでの同時露光を実現することができ、前記第1場面画像の輝度が予め設定された輝度を満たしていない場合、処理部は、前記分周回路に露光命令を送信し、前記分周回路は、受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、その後、処理部は、前記深度撮影部が前記第4露出命令に基づいて露出制御を行って収集した第2場面画像を、取得する。第1可視光撮影部が画像を収集するフレームレートが高いため、第1可視光収集部は、処理部に基づいて、前記分周回路に露出命令を直接することができ、処理部は、前記分周回路に露光命令を送信するとともに、第1可視光撮影部に露光命令を送信する。 For example, the frequency dividing circuit can realize simultaneous exposure at different frame rates by the first visible light imaging unit and the depth imaging unit, and if the luminance of the first scene image does not satisfy the preset luminance, The processing unit transmits an exposure command to the frequency dividing circuit, the frequency dividing circuit performs frequency dividing processing on the received exposure command, and sends a fourth exposure command obtained by the frequency dividing processing to the depth photographing unit. , and then the processing unit obtains a second scene image acquired by the depth photographing unit performing exposure control based on the fourth exposure command. Since the frame rate at which the first visible light capturing unit collects images is high, the first visible light collecting unit can directly issue an exposure command to the frequency dividing circuit based on the processing unit, and the processing unit can An exposure command is transmitted to the frequency dividing circuit, and an exposure command is transmitted to the first visible light imaging unit.

分周回路を使用して露光命令に対して分周処理を行い、分周処理により得られた露光命令を使用して、画像を収集するように第2可視光撮影部又は深度撮影部を制御することにより、同時に露光するように異なるフレームフレームの撮影部を制御することを実現し、エネルギー消費が節約される。 Performing frequency division processing on the exposure command using the frequency dividing circuit, and using the exposure command obtained by the frequency dividing processing, controlling the second visible light imaging unit or the depth imaging unit to acquire an image. By doing so, it is realized to control the photographing units of different frames to be exposed at the same time, and the energy consumption is saved.

環境光の照射強度が弱い場合、第1可視光撮影部及び深度撮影部によって撮影された画像を使用して場面内の対象の深度情報を検出することができ、しかし、この方式は、遠距離の対象の深度情報を検出することに適していなく、同時に、この方式は、ガラス、水面などの透明さが高く外観が滑らかな対象の深度情報を効果的に検出することもできない。この場合、検出された深度情報が間違っている可能性があるため、処理部は、検出された深度情報及び場面内の対象のカテゴリを検出した後に、深度情報が明らかに不合理であるか否か、即ち深度情報に対応する深度が予め設定された深度閾値よりも大きいか否かを判断し、及び/又は場面にガラス、水面などの予め設定された種類の対象が出現することが検出されたか否かを判断する。 When the irradiation intensity of the ambient light is weak, the images captured by the first visible light capturing unit and the depth capturing unit can be used to detect the depth information of the object in the scene, but this method cannot At the same time, this method also cannot effectively detect the depth information of highly transparent and smooth-appearing objects such as glass and water surfaces. In this case, the detected depth information may be wrong, so after detecting the detected depth information and the category of objects in the scene, the processing unit determines whether the depth information is obviously irrational. i.e., whether the depth corresponding to the depth information is greater than a preset depth threshold; determine whether or not

処理部が深度情報に対応する深度が予め設定された深度閾値よりも大きいことを確定すること及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部は、前記超音波検出命令に基づいて超音波を送信し、検出された超音波フィードバック信号を処理部に送信する。処理部は、受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深さ情報を更新する。 in response to the processing unit determining that the depth corresponding to the depth information is greater than a preset depth threshold and/or detecting that the first scene image includes a preset type of object. Then, the ultrasonic detection unit transmits ultrasonic waves based on the ultrasonic detection command, and transmits the detected ultrasonic feedback signal to the processing unit. A processing unit updates depth information of objects in the scene based on the received ultrasound feedback signals.

超音波検出部は、物体の深度情報の検出精度が高い。環境が複雑であるため、又は物体自体の特性の影響により、可視光撮影部又は深度撮影部によって撮影された第2場面画像から場面内の対象の深度情報を正確に確定することができなくなる場合、超音波検出部を使用して深度情報を検出することにより、ウェアラブルデバイスの適用性が向上し、より複雑な環境で場面内の対象の深度情報をより正確に検出することが可能になる。 The ultrasonic detector has high accuracy in detecting depth information of an object. When the depth information of objects in the scene cannot be accurately determined from the second scene image captured by the visible light imaging unit or the depth imaging unit due to the complexity of the environment or the effects of the characteristics of the object itself. , using ultrasound detectors to detect depth information increases the applicability of wearable devices, enabling them to more accurately detect depth information of objects in a scene in more complex environments.

上記ウェアラブルデバイスを着用した目標対象は、動く過程において何らかの動作をする可能性があり、その結果、撮影された場面画像に基づいて対象検出を実行する時に、目標対象の動きを邪魔する対象を正確に検出することができなく、例えば、目標対象が頭を大きい角度で下げる場合、ウェアラブルデバイスによって撮影された場面が反対側に集中するため、取得された場面画像が地面の画像であり、目標対象の前方又は側面にある、その動きに影響する障害物を正確に検出することができなくなる。このとき、生成されたガイド情報の精度を向上させ、無効な障害物の検出を回避し、目標対象の行進に影響を与える可能性のある障害物を正確に検出できないようにするため、目標対象の姿勢情報を組み合わせてガイド情報を生成する必要があり、又は、目標対象が頭を大きい角度で上げるなどの予め設定された姿勢をとる場合、姿勢を矯正するように目標対象に促す。 The target object wearing the wearable device may make some movements in the process of moving, and as a result, when performing object detection based on the captured scene images, it is possible to accurately identify objects that disturb the movement of the target object. For example, when the target lowers its head at a large angle, the scene captured by the wearable device is concentrated on the opposite side, so the captured scene image is the image of the ground, and the target the inability to accurately detect obstacles in front of or to the sides of the robot that affect its movement. At this time, in order to improve the accuracy of the generated guide information, avoid the detection of invalid obstacles, and prevent the accurate detection of obstacles that may affect the march of the target object, the target object , or if the target assumes a preset posture such as raising the head at a large angle, prompt the target to correct the posture.

例えば、上記ウェアラブルデバイスは、姿勢測定部をさらに含むことができ、前記姿勢測定部は、前記処理部に通信接続されている。姿勢測定部は、前記ウェアラブルデバイスの姿勢情報を測定し、ここでウェアラブルデバイスの姿勢情報は目標対象の姿勢情報と同じであると見なす。姿勢測定部は、測定された姿勢情報を処理部に送信する。 For example, the wearable device can further include an attitude measurement unit, the attitude measurement unit being communicatively coupled to the processing unit. A pose measuring unit measures pose information of the wearable device, where the pose information of the wearable device is considered to be the same as the pose information of the target object. The posture measurement unit transmits the measured posture information to the processing unit.

上記方法は、受信された姿勢情報に基づいて、前記ウェアラブルデバイスの目標対象の姿勢が第1予め設定された姿勢にあるか否かを判断し、そうである場合、姿勢矯正通知情報を生成するステップをさらに含む。上記第1予め設定された姿勢は、例えば頭をより大きな角度で上げるなどの、目標対象の動作に影響を与えない対象を撮影することができる姿勢である。目標対象が第1予め設定された姿勢にあることを確定した場合、姿勢矯正通知情報を使用し、現在の姿勢を矯正するように目標対象に通知することにより、ガイド情報の精度及びガイドの安全性がさらに向上する。 The method determines whether the posture of the target object of the wearable device is in a first preset posture based on the received posture information, and if so, generates posture correction notification information. Further including steps. The first preset posture is a posture in which an object can be photographed without affecting the movement of the target object, such as raising the head at a greater angle. If the target object is determined to be in the first preset posture, the posture correction notification information is used to notify the target object to correct the current posture, thereby improving the accuracy of the guide information and the safety of the guide. further improved.

姿勢情報が受信された後、姿勢情報に基づいてガイド情報を生成することができ、例えば、前記ウェアラブルデバイスの姿勢情報に基づいて、前記ウェアラブルデバイスに対する対象の方向位置情報を第2予め設定された姿勢にあるウェアラブルデバイスに対する対象の方向位置情報に変換し、変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯通知情報を生成することができる。 After the pose information is received, guide information can be generated based on the pose information, for example, based on the pose information of the wearable device, the orientation position information of the object relative to the wearable device is set to a second preset value. Converting the direction position information of the target with respect to the wearable device in a posture, and guiding information and/or posture of the target target wearing the wearable device based on the converted direction position information and the depth information of the target in the scene Correction information can be generated.

具体的に実施するために使用される場合、次のステップで方向位置情報を変換することができ、即ち、第2予め設定された姿勢と現在のウェアラブルデバイスの姿勢情報との間の姿勢差情報を確定し、姿勢差情報を使用してウェアラブルデバイスに対する対象の方向位置情報を変換し、変換後の方向位置情報を取得する。例えば、姿勢差情報が、ウェアラブルデバイスが頭を80度に上げる姿勢にあることを示すことに応答して、確定された方向位置情報は、対象がウェアラブルデバイスの真ん前にあることを示し、変換後の方向位置情報は、対象がウェアラブルデバイスの上方にあることを示し、姿勢差情報が、ウェアラブルデバイスが頭を左に60度回転させた姿勢にあることを示すことに応答して、確定された方向位置情報は、対象がウェアラブルデバイスの真ん前にあることを示し、変換後の方向位置情報は、対象がウェアラブルデバイスの左前にあることを示す。 When used for concrete implementation, the following steps can transform the orientation position information, namely the pose difference information between the second preset pose and the current pose information of the wearable device. and transforming the orientation position information of the object with respect to the wearable device using the pose difference information to obtain the orientation position information after conversion. For example, in response to the pose difference information indicating that the wearable device is in an 80-degree head-up pose, the determined orientation position information indicates that the object is directly in front of the wearable device, and after transformation The directional position information indicates that the object is above the wearable device, and the pose difference information indicates that the wearable device is in a pose with its head rotated 60 degrees to the left. The direction position information indicates that the target is in front of the wearable device, and the converted direction position information indicates that the target is in front left of the wearable device.

また、場面内の対象の深度情報は、具体的には対象とウェアラブルデバイスとの間の距離を特徴づけるために使用され、ウェアラブルデバイスの姿勢が変化した後、ウェアラブルデバイスの位置が大きく変化しないため、対象とウェアラブルデバイスとの間の距離も明らかな変化しなく、したがって、場面内の対象の深度情報を変換する必要がなく、場面内の対象の深度情報は、対象とウェアラブルデバイスとの間の距離をより正確に表すことができる。 Also, the depth information of the object in the scene is specifically used to characterize the distance between the object and the wearable device, since the position of the wearable device does not change significantly after the pose of the wearable device changes. , the distance between the object and the wearable device does not change obviously, so there is no need to transform the depth information of the object in the scene, and the depth information of the object in the scene is the distance between the object and the wearable device. Distances can be represented more accurately.

上記第2予め設定された姿勢は、例えばウェアラブルデバイスが目標対象の行進方向に向かう姿勢である。 The second preset posture is, for example, a posture in which the wearable device faces the marching direction of the target object.

上記の変換後の方向位置情報は、対応する対象が目標対象の動作経路上にあるか否かを判断し、即ち場面内の対象が目標対象の動作の障害物であるか否かを判断するために使用可能であり、対応する対象が目標対象の障害物である場合、変換後の方向位置情報に基づいてガイド情報を生成して、障害物を回避するように目標対象をガイドする必要がある。 The above converted direction position information determines whether the corresponding object is on the movement path of the target object, i.e., whether the object in the scene is an obstacle for the movement of the target object. and the corresponding object is an obstacle of the target object, it is necessary to generate guide information based on the transformed direction position information to guide the target object to avoid the obstacle. be.

前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換し、即ち目標対象の動作に効果的な方向位置情報を生成し、当該効果的な情報を使用してより正確及び効果的なガイド情報を生成することができる。 transforming the directional position information of an object in the scene with respect to the wearable device into directional position information of the object in the scene with respect to the wearable device in a second preset pose, i.e. obtaining directional position information effective for target object movement; The effective information can be used to generate more accurate and effective guide information.

応用中、姿勢測定部は、9軸ジャイロスコープなどのジャイロスコープであってもよい。 In applications, the attitude measurement unit may be a gyroscope, such as a 9-axis gyroscope.

上記の各撮影部によって収集された画像情報量が大きく、ガイドのリアルタイム性を向上させるために、各撮影部と処理部との信号伝送を短時間で完了する必要があり、本出願の実施例は、信号シリアル部、信号伝送ケーブル及び信号逆シリアル部により信号の伝送を実現する。 The amount of image information collected by each of the above imaging units is large, and in order to improve the real-time performance of guidance, it is necessary to complete signal transmission between each imaging unit and processing unit in a short time. implements signal transmission through a signal serial part, a signal transmission cable and a signal deserial part.

前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は、前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続されている。 The signal serial unit is communicatively connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit, and both ends of the signal transmission cable are connected to the signal serial unit and the signal deserial unit, respectively. , the signal deserialization unit is communicatively connected to the processing unit.

前記第1可視光撮影部は、前記第1場面画像を前記信号シリアル部に送信し、前記第2可視光撮影部と前記深度撮影部は、前記第2場面画像を前記信号シリアル部に送信し、前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信し、前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信する。 The first visible light imaging unit transmits the first scene image to the signal serial unit, and the second visible light imaging unit and the depth imaging unit transmit the second scene image to the signal serial unit. the signal serial unit converts the received first scene image and the second scene image into serial signals and transmits the serial signals to the signal deserial unit through the signal transmission cable; deserialize the deserialized signal and transmit the deserialized signal to the processing unit.

信号シリアル部、信号伝送ケーブル及び信号逆シリアル部による上記信号伝送は、例えばV-BY-ONEツイストペア線技術であってもよい。V-BY-ONEは、ビデオ信号伝送のための21倍速シリアル化インターフェース技術である。V-BY-ONEツイストペア線技術では、伝送ケーブルの数がより少なく、2本のケーブルだけでよく、より軽量であり、伝送ケーブルの要求がより低く、シールドが必要ではなく、コストが節約され、伝送帯域幅がより広く、最大3.75ギガビット/秒(Gbps)に達することができ、距離がより長く、高品質の伝送距離が15メートルに達することができ、チップの体積がより小さいため、軽量型ウェアラブル製品の設計により有利であり、例えば、5ミリメートル(mm)×5ミリメートル(mm)にパッケージ化できる。 Said signal transmission through the signal serial part, the signal transmission cable and the signal deserial part may be, for example, V-BY-ONE twisted pair technology. V-BY-ONE is a 21x serialization interface technology for video signal transmission. V-BY-ONE twisted pair technology requires fewer transmission cables, only two cables, lighter weight, lower transmission cable requirements, no shielding required, cost savings, Wider transmission bandwidth, can reach up to 3.75 Gigabits per second (Gbps), longer distance, high-quality transmission distance can reach 15 meters, smaller chip volume, It is more advantageous for lightweight wearable product designs and can be packaged in, for example, 5 millimeters (mm) by 5 millimeters (mm).

上記信号伝送ケーブルは、V-BY-ONEツイストペア線で接続されており、曲げにくく、引張りに強く、軽くて柔らかい。 The signal transmission cable is connected by a V-BY-ONE twisted pair wire, and is hard to bend, strong to pull, light and soft.

信号シリアル部を使用して、撮影部によって撮影された画像をツイストペア線高速差分信号に変換して伝送することにより、信号を2本のケーブルだけで伝送することができ、伝送速度がより速く、コストがより低く、伝送距離がより長く、部の体積がより小さい。 By using the signal serial unit to convert the image captured by the imaging unit into a twisted pair line high-speed differential signal and transmit it, the signal can be transmitted with only two cables, and the transmission speed is faster. The cost is lower, the transmission distance is longer, and the part volume is smaller.

信号シリアル部を使用して、撮影部によって撮影された画像をシリアル信号、例えばツイストペア線高速差分信号に変換して伝送することにより、信号を2本のケーブルだけで伝送することができ、伝送速度がより速く、コストがより低く、伝送距離がより長く、部の体積が小さい。 By using the signal serial unit to convert the image captured by the imaging unit into a serial signal, for example, a twisted pair line high-speed differential signal and transmit it, the signal can be transmitted with only two cables, and the transmission speed is reduced. faster, lower cost, longer transmission distance and smaller volume.

目標対象にガイド情報を音声で出力するために、ウェアラブルデバイスは、音声出力部をさらに含むことができ、前記音声出力部は、前記処理部に通信接続されている。例えば、次のステップでガイド情報の再生を実現することができ、即ち、前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部は、前記音声ナビゲーション情報を前記目標対象に再生する。 The wearable device may further include an audio output unit, said audio output unit communicatively coupled to said processing unit, for outputting guidance information audibly to the target object. For example, the following steps can realize the playing of the guide information: generate voice navigation information based on the guide information; send the voice navigation information to the voice output unit; reproduces said voice navigation information to said target object.

音声ナビゲーション情報と音声出力部により、障害物を回避するように目標対象を効果的にガイドすることができ、ガイドの効率及びガイドの安全性が向上する。 The voice navigation information and the voice output unit can effectively guide the target object to avoid obstacles, improving the efficiency of the guidance and the safety of the guidance.

具体的に実施するために使用される場合、上記処理部は、システムオンチップ(SOC:System on Chip)であってもよく、音声出力部は、オーディオ骨伝導ヘッドホンであってもよく、上記オーディオ骨伝導ヘッドホンは、さらにマンマシン対話にも使用される。 When used for specific implementation, the processing unit may be a System on Chip (SOC), the audio output unit may be audio bone conduction headphones, and the audio Bone conduction headphones are also used for man-machine interaction.

異なる光照射環境の使用、遠距離の対象の深度情報の検出、撮影部の欠点の補足及びより豊かな環境情報の取得を両立させるために、本出願の実施例は、第1可視光撮影部、第2可視光撮影部、深度撮影部を統合し、光照射強度を判断した後に撮影部を能動的に切り替え、検出精度を向上し、変化する光照射環境に適応する。また、本出願の実施例は、超音波検出部と姿勢測定部をさらに融合し、超音波によってより正確な深度情報を取得して、撮影部の欠点を補い、姿勢測定部によって姿勢情報を取得し、検出精度を最適化する。上記実施例におけるインテリジェントガイド方法は、経路計画、位置決め、障害物検出、音声通知などの機能を実行することができ、精度がより高く、環境適応性がより強く、視力障害のある人が一人で外出することが可能になり、より便利で安全である。 In order to use different light irradiation environments, detect depth information of distant objects, compensate for defects of the imaging unit, and acquire more environmental information, the embodiments of the present application include the first visible light imaging unit. , the second visible light imaging unit and the depth imaging unit are integrated, and the imaging unit is actively switched after judging the light irradiation intensity to improve the detection accuracy and adapt to the changing light irradiation environment. In addition, the embodiment of the present application further integrates the ultrasound detection unit and the posture measurement unit, obtains more accurate depth information by ultrasound, compensates for the shortcomings of the imaging unit, and acquires posture information by the posture measurement unit. to optimize detection accuracy. The intelligent guiding method in the above embodiment can perform functions such as route planning, positioning, obstacle detection, voice notification, etc., with higher accuracy, stronger environmental adaptability, and a vision-impaired person can navigate alone. It becomes possible to go out, which is more convenient and safer.

上記のウェアラブルデバイスによるインテリジェントガイド方法に対応して、本出願の実施例は、ウェアラブルデバイスによるインテリジェントガイド装置をさらに提供し、当該装置での各モジュールによって実現される機能は、以上のインテリジェントガイド方法における対応するステップと同じであり、処理部上に応用される。前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含む。図5に示すように、インテリジェントガイド装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュール510と、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュール520と、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュール530と、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュール540と、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュール550と、を備えることができる。
Corresponding to the above intelligent guide method by wearable device, the embodiments of the present application further provide an intelligent guide apparatus by wearable device, and the functions realized by each module in the apparatus are the same as in the intelligent guide method above. Identical to the corresponding steps and applied on the processing unit. The wearable device includes a first visible light imager, a second visible light imager and a depth imager. As shown in FIG. 5, the intelligent guide device
a first image acquisition module 510 configured to acquire a first scene image acquired by the first visible light imaging unit;
a luminance detection module 520 configured to detect luminance of the first scene image;
configured to acquire a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; and/or a second image acquisition module 530 configured to acquire a second scene image captured by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness; ,
a detection module 540 configured to determine depth information of an object in the scene based on the second scene image;
a guide information generation module 550 configured to generate guide information for a target subject wearing the wearable device based on the depth information.

いくつかの実施例では、前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成され、
前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成される。
In some embodiments, the second image acquisition module 530 is responsive to the brightness of the first scene image meeting a preset brightness, the When acquiring the second scene image,
transmitting a first exposure command to the second visible light photographing unit in response to the fact that the luminance of the first scene image satisfies a preset luminance; configured to acquire a second scene image acquired with exposure control based on the exposure command;
When the second image acquisition module 530 acquires a second scene image captured by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness,
sending a second exposure command to the depth photographing unit in response to the fact that the luminance of the first scene image does not satisfy a preset luminance, and the depth photographing unit performs exposure based on the second exposure command; It is configured to obtain a controlled and acquired second scene image.

いくつかの実施例では、前記検出モジュール540は、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するように構成される。
In some embodiments, when the detection module 540 determines depth information of an object within a scene based on the second scene image:
pixel points for representing objects within the scene in the first scene image and within the scene in the second scene image in response to the luminance of the first scene image meeting a preset luminance; Match the pixel points to represent the object of , obtain a pixel point pair,
based on the parallax information corresponding to the pixel point pair, the center distance between the first visible light imaging unit and the second visible light imaging unit, and the focal length of the first visible light imaging unit, is configured to determine depth information for an object of the

いくつかの実施例では、前記検出モジュール540は、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定し、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するように構成される。
In some embodiments, when the detection module 540 determines depth information of an object within a scene based on the second scene image:
determining a target pixel point of a scene object in the second scene image in response to the luminance of the first scene image failing to meet a preset luminance;
It is configured to determine depth information of an object in the scene based on depth information of the target pixel point in the second scene image.

いくつかの実施例では、前記ガイド情報生成モジュール550は、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、
通知情報を生成するように構成され、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用される。
In some embodiments, when the guide information generation module 550 generates guide information for a target subject wearing the wearable device based on the depth information,
It is configured to generate notification information, said notification information being used to notify said target subject wearing said wearable device of said depth information.

いくつかの実施例では、前記検出モジュール540は、さらに、
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するように構成され、
前記ガイド情報生成モジュール550は、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成される。
In some examples, the detection module 540 further comprises:
configured to determine orientation position information of an object in the scene relative to the wearable device based on the first scene image;
When the guide information generation module 550 generates guide information for a target object wearing the wearable device based on the depth information,
Based on the directional position information of the object in the scene and the depth information of the object in the scene with respect to the wearable device, it is configured to generate guide information for the target object wearing the wearable device.

いくつかの実施例では、前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記検出モジュール540は、さらに、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信し、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するように構成される。
In some embodiments, the wearable device further comprises an ultrasound detector,
The detection module 540 further:
in response to detecting that the depth corresponding to the depth information is greater than a preset depth threshold and/or that the first scene image contains a preset type of object, the ultrasound Sending an ultrasonic detection command to a detection unit, receiving an ultrasonic feedback signal detected by the ultrasonic detection unit based on the ultrasonic detection command,
It is configured to update depth information of an object within the scene based on the received ultrasound feedback signal.

いくつかの実施例では、前記ウェアラブルデバイスは、姿勢測定部をさらに含む。 In some embodiments, the wearable device further includes a posture measurement unit.

前記検出モジュール540は、さらに、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得し、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するように構成される。
The detection module 540 further:
acquiring posture information of the wearable device collected by the posture measurement unit;
configured to generate posture correction notification information in response to determining, based on the posture information, that the posture of the target object wearing the wearable device is in a first preset posture. .

いくつかの実施例では、前記検出モジュール540は、さらに、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するように構成され、
前記ガイド情報生成モジュール550は、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、
変換後の方向位置情報と場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するように構成される。
In some examples, the detection module 540 further comprises:
determining orientation position information of an object in the scene with respect to the wearable device based on the first scene image;
configured to convert the directional position information into directional position information of an object in the scene with respect to the wearable device in a second preset pose based on the pose information of the wearable device;
When the guide information generation module 550 generates guide information for a target object wearing the wearable device based on the depth information,
It is configured to generate guide information and/or posture correction notification information for the target object wearing the wearable device based on the transformed direction position information and the depth information of the object in the scene.

いくつかの実施例では、前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記ガイド情報生成モジュール550は、さらに、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するように構成される。
In some embodiments, the wearable device further includes an audio output,
The guide information generation module 550 further
It is configured to generate audio navigation information based on the guide information, transmit the audio navigation information to the audio output unit, and play the audio navigation information to the target object at the audio output unit.

いくつかの実施例では、前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成され、及び/又は
前記第2画像取得モジュール530は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成される。
In some embodiments, the wearable device further comprises a divider circuit,
The second image acquisition module 530 acquires a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness. case,
transmitting an exposure command to the frequency dividing circuit in response to the luminance of the first scene image meeting a preset luminance, and dividing the exposure command received by the frequency dividing circuit; and transmits the third exposure command obtained by the frequency dividing process to the second visible light imaging unit, and the second visible light imaging unit performs exposure control based on the third exposure command and collects the second and/or the second image acquisition module 530 is configured to acquire a scene image, and/or the second image acquisition module 530, in response to the brightness of the first scene image not meeting a preset brightness, When obtaining the collected second scene image,
transmitting an exposure command to the frequency dividing circuit in response to the fact that the luminance of the first scene image does not meet a preset luminance; and dividing the received exposure command by the frequency dividing circuit. and transmit the fourth exposure command obtained by the frequency dividing process to the depth photographing unit, and the depth photographing unit performs exposure control based on the fourth exposure command to acquire the collected second scene image. configured to

上記のウェアラブルデバイスによるインテリジェントガイド方法に対応して、本出願の実施例は、ウェアラブルデバイスを提供し、当該ウェアラブルデバイスでの各部によって実現される機能は、上記実施例における対応する部によって実現される機能と同じである。例えば、図2に示すように、番号21は頭部着用デバイス側ブロック図を表し、番号22はホストコンピュータ側ブロック図であり、頭部着用デバイス側ブロックとホストコンピュータ側ブロック図は、信号伝送ケーブル208を介して接続されている。ウェアラブルデバイスは、処理部201、第1可視光撮影部202、第2可視光撮影部203及び深度撮影部204を含むことができる。前記第1可視光撮影部202は、第1場面画像を収集するように構成され、前記第2可視光撮影部203及び前記第2深度撮影部204は、第2場面画像を収集するように構成され、前記処理部201は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。 Corresponding to the wearable device intelligent guidance method described above, the embodiments of the present application provide a wearable device, and the functions implemented by each unit in the wearable device are implemented by the corresponding units in the above embodiments. Same as function. For example, as shown in FIG. 2, number 21 represents a head-worn device side block diagram, number 22 represents a host computer side block diagram, and the head-worn device side block and the host computer side block diagram are signal transmission cables. 208. The wearable device may include a processing unit 201 , a first visible light imager 202 , a second visible light imager 203 and a depth imager 204 . The first visible light capturing unit 202 is configured to acquire a first scene image, and the second visible light capturing unit 203 and the second depth capturing unit 204 are configured to acquire a second scene image. and the processing unit 201 is configured to execute the wearable device intelligent guiding method described above.

いくつかの実施例では、上記ウェアラブルデバイスは、超音波検出部205、姿勢測定部206、信号シリアル部207、信号伝送ケーブル208、信号逆シリアル部209、音声出力部210をさらに含むことができる。上記超音波検出部205、姿勢測定部206、信号シリアル部207、信号伝送ケーブル208、信号逆シリアル部209、音声出力部210によって実現される機能は、上記実施例のインテリジェントガイド方法における対応する部によって実現される機能と同じである。 In some embodiments, the wearable device may further include an ultrasound detection unit 205 , a posture measurement unit 206 , a signal serialization unit 207 , a signal transmission cable 208 , a signal deserialization unit 209 and an audio output unit 210 . The functions realized by the ultrasonic detection unit 205, the posture measurement unit 206, the signal serial unit 207, the signal transmission cable 208, the signal deserial unit 209, and the audio output unit 210 correspond to the corresponding units in the intelligent guide method of the above embodiment. It is the same as the function realized by

また、ウェアラブルデバイスは、マイクロコントロール部MCU211、WIFI部212、GPS部213をさらに含むことができる。マイクロコントロール部MCU211は、ウェアラブルデバイスの充電管理及びマシン全体の状態検出を行うように構成され、GPS部213は、ウェアラブルデバイスの位置決めを行うように構成され、WIFI部212は、ウェアラブルデバイス内の第1場面画像、第2場面画像、深度情報などをリモートサーバーに送信するように構成される。 Also, the wearable device may further include a microcontroller MCU 211 , a WIFI unit 212 and a GPS unit 213 . The micro control unit MCU 211 is configured to perform charging management of the wearable device and to detect the state of the entire machine, the GPS unit 213 is configured to perform positioning of the wearable device, and the WIFI unit 212 is configured to communicate with the wearable device. It is configured to send first scene images, second scene images, depth information, etc. to a remote server.

いくつかの実施例では、図2に示すように、頭部着用デバイス側ブロック21は、2つの可視光撮影部202及び203、深度撮影像部204を含み、その中の1つのRGB撮影部を主撮影部として同期トリガ信号を別のRGB撮影部に出力するとともに、1つの周波数分割チップを介して1つの同期トリガ信号を深度撮影部に出力し、このようにして、2つのRGB撮影部202及び203、深度撮影部204は、異なるフレームレートでも3つの撮影部による同時露光を実現することができる。3つの撮影部の画像信号は、信号シリアル部207(V-BY-ONEシリアルチップ)を通過してツイストペア線高速差分信号に変換され、信号伝送ケーブル208を介してホストコンピュータ側ブロック図22に接続され、姿勢測定部206(ジャイロ)は、ユーザの姿勢情報を常に監視するために使用され、超音波検出部205は、ガラス壁、水面などの距離情報を検出するために使用される。 In some embodiments, as shown in FIG. 2, the head-worn device side block 21 includes two visible light imaging units 202 and 203 and a depth imaging imaging unit 204, one of which is an RGB imaging unit. Outputs a synchronization trigger signal to another RGB imaging unit as the main imaging unit, and outputs one synchronization trigger signal to the depth imaging unit via one frequency division chip, thus forming two RGB imaging units 202 and 203, the depth capture unit 204 can realize simultaneous exposure by the three capture units even at different frame rates. The image signals from the three imaging units pass through the signal serial unit 207 (V-BY-ONE serial chip), are converted into twisted pair line high-speed differential signals, and are connected to the block diagram 22 on the host computer side via the signal transmission cable 208. The posture measurement unit 206 (gyro) is used to constantly monitor the user's posture information, and the ultrasonic detection unit 205 is used to detect distance information such as glass walls and water surfaces.

ホストコンピュータ側ブロック図22は、処理部201(SOC部)、全地球測位システム(GPS:Global Positioning System)部213、WIFI部212、統合されたV-BY-ONE逆シリアル化チップ(信号逆シリアル部)209、MCU(マイクロコントロール部)211及び音声出力部210を含み、処理部201は、強力な計算能力を備えた人工知能処理モジュールを採用している。統合されたV-BY-ONE逆シリアル化チップ209は、タッチモバイル産業用プロセッサインターフェースのカメラインターフェース規格(MIPI-CSI:Mobile Industry Processor Interface-Camera Serial Interface)データを処理部201のモバイルインダストリープロセッサインターフェース物理(MIPI PHY:Mobile Industry Processor Interface Physical)入力インターフェースに送信し、アルゴリズムを使用してさらに処理し、次に音声出力部210のオーディオ骨伝導ヘッドセットによって再生して通知し、音声出力部210は、さらに人間とコンピュータの対話型音声対話を行うこともでき、MCU211は、マシン全体の動作状態の検出及び充電管理などを行うために使用され、GPS部213は、リアルタイム動的(RTK:Real time kinematic)技術を採用して正確な位置決めを行うために使用され、WIFI部212は、データを同期ネットワークにアップロードするために使用される。 The host computer side block diagram 22 includes a processing unit 201 (SOC unit), a global positioning system (GPS) unit 213, a WIFI unit 212, an integrated V-BY-ONE deserialization chip (signal deserialization unit) 209, MCU (micro control unit) 211 and audio output unit 210, and the processing unit 201 adopts an artificial intelligence processing module with strong computing power. The integrated V-BY-ONE deserialization chip 209 converts the camera interface standard (MIPI-CSI: Mobile Industry Processor Interface-Camera Serial Interface) data of the touch mobile industrial processor interface to the mobile industry processor interface physical of the processing unit 201. (MIPI PHY: Mobile Industry Processor Interface Physical) input interface, further processed using algorithms, then played back by an audio bone conduction headset in the audio output unit 210 to announce, and the audio output unit 210: Furthermore, interactive voice interaction between humans and computers can also be performed, the MCU 211 is used to detect the operating state of the entire machine and charge management, etc. ) technology for accurate positioning, and the WIFI section 212 is used to upload data to the synchronization network.

信号伝送ケーブル208は、V-BY-ONEツイストペア線で接続されている。 The signal transmission cable 208 is connected by a V-BY-ONE twisted pair line.

図3に示すように、本出願の実施例は、ウェアラブルデバイス301及びホストコンピュータ302を含むガイドシステム300を提供する。前記ウェアラブルデバイス301は、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記ホストコンピュータ302は、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、上記のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される。 As shown in FIG. 3, embodiments of the present application provide a guidance system 300 including wearable device 301 and host computer 302 . The wearable device 301 includes a first visible light imaging unit, a second visible light imaging unit, and a depth imaging unit. The host computer 302 includes a processing unit, and the processing unit receives the second image via a signal transmission cable. Connected to a first visible light capturing unit, a second visible light capturing unit and a depth capturing unit, the processing unit is configured to execute the above intelligent guidance method by the wearable device.

前記ホストコンピュータ302には、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられてもよい。 The host computer 302 may be provided with at least one of a positioning module, a network module, a micro-control unit for operating status detection and/or charge management, an audio module, connected to the processing unit.

図1のインテリジェントガイド方法に対応して、本出願の実施例は、電子デバイス6をさらに提供する。図4に示すように、それは本出願の実施例による電子デバイス400の構造概略図である。前記電子デバイス400は、
プロセッサ41、メモリ42及びバス43を含み、メモリ42は、実行命令を記憶するように構成され、内部メモリ421と外部メモリ422を含み、ここでのメモリ421は内部メモリとも呼ばれ、プロセッサ41内の演算データ、及びハードディスクなどの外部メモリ422と交換されるデータを一時的に記憶するように構成され、プロセッサ41は、内部メモリ421と外部メモリ422を介してデータ交換を行い、電子デバイス400が動作する場合、プロセッサ41とメモリ42は、バス43を介して通信し、その結果、プロセッサ41は、第1可視光撮影部によって収集された第1場面画像を取得する命令、前記第1場面画像の輝度を検出する命令、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する命令、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する命令、前記第2場面画像に基づいて場面内の対象の深度情報を確定する命令、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する命令を実行する。
Corresponding to the intelligent guiding method of FIG. 1, the embodiments of the present application further provide an electronic device 6. FIG. As shown in FIG. 4, it is a structural schematic diagram of an electronic device 400 according to an embodiment of the present application. The electronic device 400 is
It includes a processor 41 , a memory 42 and a bus 43 , the memory 42 being configured to store instructions for execution, and including an internal memory 421 and an external memory 422 , where the memory 421 is also referred to as internal memory, within the processor 41 . and data to be exchanged with an external memory 422 such as a hard disk, the processor 41 exchanges data via the internal memory 421 and the external memory 422, and the electronic device 400 In operation, processor 41 and memory 42 communicate via bus 43 such that processor 41 outputs instructions to acquire a first scene image acquired by the first visible light imager, said first scene image obtaining a second scene image collected by the second visible light imaging unit in response to the first scene image satisfying a preset luminance; and/or obtaining a second scene image acquired by the depth capture unit in response to the luminance of the first scene image not meeting a preset luminance; determine depth information for an object in a scene based on the depth information; and generate guide information for a target object wearing the wearable device based on the depth information.

本出願の実施例は、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に、上記方法の実施例におけるインテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体をさらに提供する。ここで、当該記憶媒体は、揮発性コンピュータ可読記憶媒体又は不揮発性コンピュータ可読記憶媒体であってもよい。 Embodiments of the present application further provide a computer readable storage medium having a computer program stored therein for performing the steps of the intelligent guide method in the above method embodiments when the computer program is executed by a processor. Here, the storage medium may be a volatile computer-readable storage medium or a non-volatile computer-readable storage medium.

本出願の実施例によって提供されるインテリジェントガイド方法のコンピュータプログラム製品は、プログラムコードを記憶しているコンピュータ可読記憶媒体を含み、前記プログラムコードに含まれる命令は、上記方法の実施例に記載されたインテリジェントガイド方法のステップを実行するために使用されてもよく、例えば、上記方法の実施例を参照することができる。 An intelligent guide method computer program product provided by an embodiment of the present application includes a computer readable storage medium storing a program code, wherein the instructions contained in the program code are described in the method embodiments above. It may be used to carry out the steps of the intelligent guide method, for example, refer to the above method embodiments.

本出願の実施例は、プロセッサに実行される時に上記の実施例の任意の方法を実現するコンピュータプログラムをさらに提供する。当該コンピュータプログラム製品は、例えばハードウェア、ソフトウェア又はそれらの組み合わせによって実現されてもよい。1つの選択可能な実施例では、前記コンピュータプログラム製品は、例えばコンピュータ記憶媒体として具体化され、別の選択可能な実施例では、コンピュータプログラム製品は、例えばソフトウェア開発キット(SDK:Software Development Kit)などのソフトウェア製品として具体化される。 An embodiment of the present application further provides a computer program that, when executed by a processor, implements any of the methods of the above embodiments. The computer program product may for example be implemented in hardware, software or a combination thereof. In one alternative embodiment, the computer program product is embodied, for example, as a computer storage medium, and in another alternative embodiment, the computer program product is, for example, a Software Development Kit (SDK). is embodied as a software product.

当業者は、便利及び簡潔に説明するために、上記のシステムと装置の具体的な動作プロセスについて、前記方法の実施例における対応するプロセスを参照できることを明確に理解することができる。本出願が提供する、いくつかの実施例では、開示されるシステム、装置及び方法は、他の方式により実現されてもよいと理解すべきである。上記の装置の実施例は、例示的なものだけであり、例えば、前記ユニットの区分は、論理機能的区分だけであり、実際に実施する時に他の区分方式もあり得て、また、例えば、複数のユニット又は構成要素は組み合わせられてもよく又は別のシステムに統合されてもよく、又はいくつかの特徴は無視されてもよく、又は実行されなくてもよい。また、示され、又は議論される相互結合又は直接結合又は通信接続はいくつかの通信インターフェース、装置又はユニットを介す間接的結合又は通信接続であってもよく、電気的、機械的又は他の形態であってもよい。 Persons skilled in the art can clearly understand that the specific working processes of the above systems and devices can refer to the corresponding processes in the method embodiments for convenience and concise description. It should be understood that in some of the embodiments provided by this application, the disclosed systems, devices and methods may be implemented in other ways. The above device embodiments are only exemplary, for example, the division of the units is only logical functional division, and other division schemes may be possible when actually implemented, and for example, Multiple units or components may be combined or integrated into another system, or some features may be ignored or not performed. Also, any mutual or direct coupling or communication connection shown or discussed may be an indirect coupling or communication connection through some communication interface, device or unit, electrical, mechanical or otherwise. may be in the form

分離部として説明された前記ユニットは物理的に分離するものであってもよく又は物理的に分離するものでなくてもよく、ユニットとして表示された部は物理的要素であってもよく又は物理的ユニットでなくてもよく、即ち1つの箇所に位置してもよく、又は複数のネットワーク要素に分布してもよい。実際のニーズに応じてその中の一部又は全てのユニットを選択して本実施例の解決策の目的を達成することができる。 Said units described as separate parts may or may not be physically separate and parts denoted as units may be physical elements or It may not be a static unit, ie it may be located at one location, or it may be distributed over several network elements. Some or all of the units can be selected according to actual needs to achieve the purpose of the solutions in the embodiments.

また、本出願の各実施例における各機能ユニットは1つの処理ユニットに統合されてもよく、個々のユニットは、単独で物理的に存在してもよく、2つ又は2つ以上のユニットは1つのユニットに統合されてもよい。 Also, each functional unit in each embodiment of the present application may be integrated into one processing unit, individual units may physically exist alone, and two or more units may be combined into one may be integrated into one unit.

前記機能は、ソフトウェア機能ユニットの形態で実現され且つ独立した製品として販売又は使用される場合、プロセッサで実行可能な不揮発性コンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づき、本出願の技術的解決策は、本質的に又は従来技術に寄与する部分又は当該技術的解決策の部分がソフトウェア製品の形で具体化してもよく、当該コンピュータソフトウェア製品が1つの記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバー、又はネットワークデバイス等であってもよい)に本出願の様々な実施例に記載される方法の全て又は一部のステップを実行させるためのいくつかの命令を含む。前記憶媒体は、USBフラッシュディスク、モバイルハードディスク、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶できる様々な媒体を含む。 The functions, when implemented in the form of software functional units and sold or used as stand-alone products, may be stored in a non-volatile computer-readable storage medium executable by a processor. Based on this understanding, the technical solution of the present application may be embodied in the form of a software product, the part that essentially or contributes to the prior art, or the part of the technical solution, and the computer software product is stored on a single storage medium and causes a computer device (which may be a personal computer, server, network device, etc.) to perform all or some of the steps of the methods described in various embodiments of the present application. Contains some instructions for The storage medium includes various media capable of storing program code, such as USB flash disk, mobile hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk or optical disk. include.

最後に説明すべきこととして、上記実施例は、本出願の具体的な実施形態だけであり、本出願の技術的解決策を説明するためのものであり、それを制限しなく、本開示の保護範囲は、これに限定されなく、上記実施例を参照して本出願を詳細に説明するが、当業者は、いかなる当業者が本出願で開示される技術範囲内で、依然として上記実施例に記載される技術的解決策を変更し、又は変化を容易に想到し、又はその中の一部の技術特徴に対して同等入れ替えを行うことができ、これらの変更、変化又は入れ替えが対応する技術的解決策の本質を、本出願の実施例における技術的解決策の精神及び範囲から逸脱させなく、全て本出願の保護範囲に含まれるべきである。従って、本出願の保護範囲は前記請求項の保護範囲に準拠するべきである。
産業上の利用可能性
本開示の実施例では、光照射強度が大きい時に、即ち第1場面画像の輝度が大きい場合、第2可視光撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定し、光照射強度が小さい場合、即ち第1場面画像の輝度が小さい場合、深度撮影部によって撮影された第2場面画像を使用して場面内の対象の深度情報を確定する。これにより、環境光の照射強度に応じて、異なる部品によって収集された画像を選択して目標対象のためにガイドサービスを提供することを実現し、光照射強度の変化に効果的に適応し、豊かな環境情報を取得することができ、同時に、テクスチャが欠けている障害物を検出することができ、その結果、障害物の検出精度及びガイドの安全性が向上する。
Finally, it should be pointed out that the above examples are only specific embodiments of the present application, are for the purpose of describing the technical solutions of the present application, and do not limit it, and are the subject of the present disclosure. The scope of protection is not limited thereto, and the present application will be described in detail with reference to the above examples, but any person skilled in the art can still apply the above examples within the technical scope disclosed in the present application. The technical solution described can be easily modified or changed, or equivalent replacement can be made for some technical features therein, and the technology to which these changes, changes or replacements correspond The essence of the technical solutions shall not depart from the spirit and scope of the technical solutions in the embodiments of the present application, and shall all fall within the protection scope of the present application. Therefore, the protection scope of the present application shall conform to the protection scope of the above claims.
INDUSTRIAL APPLICABILITY In the embodiment of the present disclosure, when the light irradiation intensity is high, that is, when the brightness of the first scene image is high, the second scene image captured by the second visible light capturing unit is used to capture the scene. When the light irradiation intensity is low, that is, when the brightness of the first scene image is low, the second scene image captured by the depth capturing unit is used to determine the depth information of the object in the scene. confirm. Thus, according to the irradiation intensity of the ambient light, it is possible to select the images collected by different parts to provide a guide service for the target object, effectively adapt to the changes in the light irradiation intensity, Rich environment information can be obtained, and at the same time, texture-less obstacles can be detected, resulting in improved obstacle detection accuracy and guide safety.

第7態様では、本出願の実施例は、プロセッサによってロードされてインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品を提供する。
例えば、本願は以下の項目を提供する。
(項目1)
ウェアラブルデバイスによるインテリジェントガイド方法であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む、インテリジェントガイド方法。
(項目2)
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップとを含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含むことを特徴とする
項目1又は2に記載の方法。
(項目5)
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含むことを特徴とする
項目1-4のいずれか一項に記載の方法。
(項目6)
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含むことを特徴とする
項目1-5のいずれか一項に記載の方法。
(項目7)
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含むことを特徴とする
項目1-6のいずれか一項に記載の方法。
(項目8)
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含むことを特徴とする
項目1-7のいずれか一項に記載の方法。
(項目9)
前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含むことを特徴とする
項目8に記載の方法。
(項目10)
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含むことを特徴とする
項目1-9のいずれか一項に記載の方法。
(項目11)
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
項目1-10のいずれか一項に記載の方法。
(項目12)
ウェアラブルデバイスによるインテリジェントガイド装置であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える、インテリジェントガイド装置。
(項目13)
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成され、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成される
項目12に記載のインテリジェントガイド装置。
(項目14)
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するように構成される
項目12又は13に記載のインテリジェントガイド装置。
(項目15)
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定し、前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するように構成されることを特徴とする
項目12又は13に記載のインテリジェントガイド装置。
(項目16)
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、通知情報を生成するように構成され、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されることを特徴とする
項目12-15のいずれか一項に記載のインテリジェントガイド装置。
(項目17)
前記検出モジュールは、さらに前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されることを特徴とする
項目12-16のいずれか一項に記載のインテリジェントガイド装置。
(項目18)
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記検出モジュールは、さらに前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するように構成されることを特徴とする
項目12-17のいずれか一項に記載のインテリジェントガイド装置。
(項目19)
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、前記検出モジュールは、さらに前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得し、前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するように構成されることを特徴とする
項目12-18のいずれか一項に記載のインテリジェントガイド装置。
(項目20)
前記検出モジュールは、さらに前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するように構成されることを特徴とする
項目19に記載のインテリジェントガイド装置。
(項目21)
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記ガイド情報生成モジュールは、さらに前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するように構成されることを特徴とする
項目12-20のいずれか一項に記載のインテリジェントガイド装置。
(項目22)
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成され、及び/又は
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成されることを特徴とする
項目12-21のいずれか一項に記載のインテリジェントガイド装置。
(項目23)
ウェアラブルデバイスであって、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、項目1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ウェアラブルデバイス。
(項目24)
信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成されることを特徴とする
項目23に記載のウェアラブルデバイス。
(項目25)
前記深度撮影部は、TOFカメラを含むことを特徴とする
項目23又は24に記載のウェアラブルデバイス。
(項目26)
ガイドシステムであって、ウェアラブルデバイスとホストコンピュータとを備え、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、項目1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ガイドシステム。
(項目27)
前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられていることを特徴とする
項目26に記載のガイドシステム。
(項目28)
電子デバイスであって、プロセッサ、メモリ及びバスを備え、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリは、バスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、項目1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行する、電子デバイス。
(項目29)
コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に項目1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体。
(項目30)
プロセッサによってロードされて項目1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品。
In a seventh aspect, embodiments of the present application provide a computer program product comprising one or more instructions suitable for being loaded by a processor to perform the steps of the intelligent guide method.
For example, the present application provides the following items.
(Item 1)
An intelligent guiding method by a wearable device, wherein the wearable device comprises a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
obtaining a first scene image acquired by the first visible light imaging unit;
detecting the brightness of the first scene image;
obtaining a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; obtaining a second scene image captured by the depth capture unit in response to the brightness of the scene image not meeting a preset brightness;
determining depth information of an object in the scene based on the second scene image;
generating guide information for a target object wearing the wearable device based on the depth information.
(Item 2)
obtaining a second scene image acquired by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness;
transmitting a first exposure command to the second visible light photographing unit in response to the fact that the luminance of the first scene image satisfies a preset luminance; acquiring a second scene image acquired with exposure control based on the exposure command;
obtaining a second scene image acquired by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
sending a second exposure command to the depth photographing unit in response to the fact that the luminance of the first scene image does not satisfy a preset luminance, and the depth photographing unit performs exposure based on the second exposure command; and acquiring a second scene image acquired under control.
The method of item 1.
(Item 3)
Determining depth information for an object in the scene based on the second scene image comprises:
pixel points for representing objects within the scene in the first scene image and within the scene in the second scene image in response to the luminance of the first scene image meeting a preset luminance; matching pixel points to represent objects of to obtain pixel point pairs;
based on the parallax information corresponding to the pixel point pair, the center distance between the first visible light imaging unit and the second visible light imaging unit, and the focal length of the first visible light imaging unit, and determining depth information for an object of
3. The method of item 1 or 2.
(Item 4)
Determining depth information for an object in the scene based on the second scene image comprises:
determining a target pixel point of a scene object in the second scene image in response to the luminance of the first scene image not meeting a preset luminance;
determining depth information of an object in the scene based on depth information of the target pixel point in the second scene image.
3. The method of item 1 or 2.
(Item 5)
generating guide information for a target object wearing the wearable device based on the depth information;
Generating notification information, wherein the notification information is used to notify the target wearing the wearable device of the depth information.
The method of any one of items 1-4.
(Item 6)
further comprising determining directional position information of an object in the scene relative to the wearable device based on the first scene image;
generating guide information for a target object wearing the wearable device based on the depth information;
generating guide information for a target object wearing the wearable device based on direction position information of the object in the scene and depth information of the object in the scene with respect to the wearable device.
A method according to any one of items 1-5.
(Item 7)
The wearable device further includes an ultrasonic detector,
The method includes:
in response to detecting that the depth corresponding to the depth information is greater than a preset depth threshold and/or that the first scene image contains a preset type of object, the ultrasound transmitting an ultrasound detection command to a detection unit and receiving an ultrasound feedback signal detected by the ultrasound detection unit based on the ultrasound detection command;
updating depth information of objects in the scene based on the received ultrasound feedback signal.
A method according to any one of items 1-6.
(Item 8)
The wearable device further includes a posture measurement unit,
The method includes:
obtaining posture information of the wearable device collected by the posture measurement unit;
generating posture correction notification information in response to determining, based on the posture information, that the posture of the target subject wearing the wearable device is in a first preset posture. characterized by comprising
The method of any one of items 1-7.
(Item 9)
The method includes:
determining directional position information of an object in the scene relative to the wearable device based on the first scene image;
converting the directional position information into directional position information of an object in the scene with respect to the wearable device in a second preset pose based on the wearable device pose information;
generating guide information for a target object wearing the wearable device based on the depth information;
generating guide information and/or posture correction notification information for the target object wearing the wearable device, based on the converted direction position information and the depth information of the object in the scene.
The method of item 8.
(Item 10)
The wearable device further includes an audio output unit,
The method includes:
The method further comprises generating audio navigation information based on the guide information, transmitting the audio navigation information to the audio output unit, and playing the audio navigation information to the target object at the audio output unit. to be
The method of any one of items 1-9.
(Item 11)
The wearable device further includes a frequency divider circuit,
obtaining a second scene image acquired by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness;
transmitting an exposure command to the frequency dividing circuit in response to the luminance of the first scene image meeting a preset luminance, and dividing the exposure command received by the frequency dividing circuit; and transmits the third exposure command obtained by the frequency dividing process to the second visible light imaging unit, and the second visible light imaging unit performs exposure control based on the third exposure command and collects the second including obtaining a scene image, and/or
obtaining a second scene image acquired by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
transmitting an exposure command to the frequency dividing circuit in response to the fact that the luminance of the first scene image does not meet a preset luminance; and dividing the received exposure command by the frequency dividing circuit. and transmitting the fourth exposure command obtained by the frequency dividing process to the depth photographing unit, and acquiring the second scene image collected by the depth photographing unit performing exposure control based on the fourth exposure command. characterized by including a step
The method of any one of items 1-10.
(Item 12)
An intelligent guide apparatus based on a wearable device, the wearable device comprising a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit, the apparatus comprising:
a first image acquisition module configured to acquire a first scene image acquired by the first visible light imaging unit;
a luminance detection module configured to detect luminance of the first scene image;
configured to acquire a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; and/or a second image acquisition module configured to acquire a second scene image captured by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
a detection module configured to determine depth information of an object in the scene based on the second scene image;
a guide information generation module configured to generate guide information for a target subject wearing the wearable device based on the depth information.
(Item 13)
wherein the second image acquisition module acquires a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; sending a first exposure command to the second visible light photographing unit in response to the fact that the luminance of the first scene image satisfies a preset luminance; configured to acquire a second scene image acquired by performing exposure control based on one exposure command;
When the second image acquisition module acquires a second scene image captured by the depth imaging unit in response to the luminance of the first scene image not meeting a preset luminance, the transmitting a second exposure instruction to the depth photographing unit in response to the fact that the luminance of the one-scene image does not satisfy a preset luminance, and the depth photographing unit performs exposure control based on the second exposure instruction; configured to acquire a second scene image acquired by visiting
13. Intelligent guide device according to item 12.
(Item 14)
The detection module, when determining depth information of an object in the scene based on the second scene image, in response to the luminance of the first scene image meeting a preset luminance, the first Matching pixel points representing objects in a scene in one scene image with pixel points representing objects in a scene in the second scene image to obtain pixel point pairs, and corresponding to the pixel point pairs. Determining depth information of an object in the scene based on parallax information, a center distance between the first visible light imaging unit and the second visible light imaging unit, and a focal length of the first visible light imaging unit. configured to
14. Intelligent guide device according to item 12 or 13.
(Item 15)
The detection module, when determining depth information of an object in the scene based on the second scene image, in response to the brightness of the first scene image not meeting a preset brightness, the first scene image. determining a target pixel point of an in-scene object in a second scene image; and determining depth information of an in-scene object based on depth information of the target pixel point in the second scene image. characterized by
14. Intelligent guide device according to item 12 or 13.
(Item 16)
The guide information generation module is configured to generate notification information when generating guide information for a target object wearing the wearable device based on the depth information, the notification information being generated by the wearable device. is used to notify the depth information to the target object wearing a
Intelligent guide device according to any one of items 12-15.
(Item 17)
the detection module is further configured to determine orientation position information of an object in the scene relative to the wearable device based on the first scene image;
When the guide information generation module generates guide information for a target object wearing the wearable device based on the depth information, the direction position information of the object in the scene and the depth of the object in the scene with respect to the wearable device configured to generate guide information for a target object wearing the wearable device based on the information
Intelligent guide device according to any one of items 12-16.
(Item 18)
The wearable device further includes an ultrasonic detector,
The detection module is further responsive to detecting that the depth corresponding to the depth information is greater than a preset depth threshold and/or that the first scene image includes a preset type of object. Then, an ultrasonic detection command is transmitted to the ultrasonic detection unit, and an ultrasonic feedback signal detected by the ultrasonic detection unit based on the ultrasonic detection command is received. to be
Intelligent guide device according to any one of items 12-17.
(Item 19)
The wearable device further comprises a posture measuring unit, the detecting module further obtains posture information of the wearable device collected by the posture measuring unit, and detects a target wearing the wearable device based on the posture information. configured to generate posture correction notification information in response to determining that the posture of the subject is in the first preset posture;
Intelligent guide device according to any one of items 12-18.
(Item 20)
The detection module further determines directional position information of an object in the scene with respect to the wearable device based on the first scene image, and determines the directional position information based on pose information of the wearable device to a second pre- configured to convert directional position information of an object in the scene to the wearable device in a set pose;
When the guide information generation module generates guide information for a target object wearing the wearable device based on the depth information, the guide information generation module based on the converted direction position information and the depth information of the object in the scene, The wearable device is configured to generate guide information and/or posture correction notification information for a target object wearing the wearable device.
20. Intelligent guide device according to item 19.
(Item 21)
The wearable device further includes an audio output unit,
The guiding information generating module further generates audio navigation information based on the guiding information, transmits the audio navigation information to the audio output unit, and plays the audio navigation information to the target object at the audio output unit. characterized by being configured to
Intelligent guide device according to any one of items 12-20.
(Item 22)
The wearable device further includes a frequency divider circuit,
wherein the second image acquisition module acquires a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; transmitting an exposure command to the frequency dividing circuit in response to the luminance of the first scene image meeting a preset luminance; dividing the received exposure command by the frequency dividing circuit; processing, the third exposure command obtained by the frequency dividing process is transmitted to the second visible light imaging unit, and the second visible light imaging unit performs exposure control based on the third exposure command and collects the configured to acquire two-scene images; and/or
When the second image acquisition module acquires a second scene image captured by the depth imaging unit in response to the luminance of the first scene image not meeting a preset luminance, the In response to the luminance of one scene image not satisfying a preset luminance, an exposure command is transmitted to the frequency dividing circuit, and frequency division processing is performed on the received exposure command by the frequency dividing circuit. and transmitting a fourth exposure command obtained by the frequency dividing process to a depth photographing unit, and acquiring a second scene image collected by performing exposure control based on the fourth exposure command in the depth photographing unit. characterized by being
Intelligent guide device according to any one of items 12-21.
(Item 23)
A wearable device comprising a processing unit, a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
the first visible light imaging unit is configured to acquire a first scene image;
the second visible light imager and the depth imager configured to acquire a second scene image;
A wearable device, wherein the processing unit is configured to perform an intelligent guidance method by the wearable device according to any one of items 1-11.
(Item 24)
further comprising a signal serial part, a signal transmission cable and a signal deserial part;
the signal serial unit is connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit for communication, and both ends of the signal transmission cable are connected to the signal serial unit and the signal deserial unit, respectively; the signal deserialization unit is communicatively connected to the processing unit;
the first visible light imaging unit is further configured to transmit the first scene image to the signal serial unit;
the second visible light imaging unit and the depth imaging unit are further configured to transmit the second scene image to the signal serial unit;
The signal serial unit is configured to convert the received first scene image and the second scene image into a serial signal and transmit the serial signal to the signal deserial unit via the signal transmission cable;
The signal deserialization unit is characterized in that it is arranged to deserialize a received signal and send the deserialized signal to the processing unit.
24. A wearable device according to item 23.
(Item 25)
The depth imaging unit includes a TOF camera.
25. A wearable device according to item 23 or 24.
(Item 26)
A guide system comprising a wearable device and a host computer,
The wearable device includes a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
The host computer includes a processing unit, the processing unit is connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit via a signal transmission cable, and the processing unit performs item 1 - A guidance system configured to perform an intelligent guidance method by means of a wearable device according to any one of Claims 11.
(Item 27)
The host computer is provided with at least one of a positioning module connected to the processing unit, a network module, a microcontrol unit for detecting operating conditions and/or charge management, and an audio module.
27. Guiding system according to item 26.
(Item 28)
An electronic device comprising a processor, a memory and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when the electronic device operates, the processor and the memory communicate over the bus. and performs the intelligent guide method steps of any one of items 1-11 when said machine readable instructions are executed by said processor.
(Item 29)
A computer readable storage medium storing a computer program for performing the steps of the intelligent guide method according to any one of items 1-11 when the computer program is executed by a processor.
(Item 30)
A computer program product comprising one or more instructions suitable to be loaded by a processor to carry out the steps of the intelligent guide method according to any one of items 1-11.

Claims (30)

ウェアラブルデバイスによるインテリジェントガイド方法であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
第1可視光撮影部によって収集された第1場面画像を取得するステップと、
前記第1場面画像の輝度を検出するステップと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップ、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップと、を含む、インテリジェントガイド方法。
An intelligent guiding method by a wearable device, wherein the wearable device comprises a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
obtaining a first scene image acquired by the first visible light imaging unit;
detecting the brightness of the first scene image;
obtaining a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; obtaining a second scene image captured by the depth capture unit in response to the brightness of the scene image not meeting a preset brightness;
determining depth information of an object in the scene based on the second scene image;
generating guide information for a target object wearing the wearable device based on the depth information.
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
請求項1に記載の方法。
obtaining a second scene image acquired by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness;
transmitting a first exposure command to the second visible light photographing unit in response to the fact that the luminance of the first scene image satisfies a preset luminance; acquiring a second scene image acquired with exposure control based on the exposure command;
obtaining a second scene image acquired by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
sending a second exposure command to the depth photographing unit in response to the fact that the luminance of the first scene image does not satisfy a preset luminance, and the depth photographing unit performs exposure based on the second exposure command; 2. The method of claim 1, comprising acquiring a second scene image acquired under control.
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得するステップと、
前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するステップとを含むことを特徴とする
請求項1又は2に記載の方法。
Determining depth information for an object in the scene based on the second scene image comprises:
pixel points for representing objects within the scene in the first scene image and within the scene in the second scene image in response to the luminance of the first scene image meeting a preset luminance; matching pixel points to represent objects of to obtain pixel point pairs;
based on the parallax information corresponding to the pixel point pair, the center distance between the first visible light imaging unit and the second visible light imaging unit, and the focal length of the first visible light imaging unit, 3. A method according to claim 1 or 2, comprising the step of determining depth information for an object of
前記第2場面画像に基づいて場面内の対象の深度情報を確定するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定するステップと、
前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するステップと、を含むことを特徴とする
請求項1又は2に記載の方法。
Determining depth information for an object in the scene based on the second scene image comprises:
determining a target pixel point of a scene object in the second scene image in response to the luminance of the first scene image not meeting a preset luminance;
3. A method according to claim 1 or 2, comprising determining depth information of an object in the scene based on depth information of the target pixel point in the second scene image.
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
通知情報を生成するステップであって、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されるステップを含むことを特徴とする
請求項1-4のいずれか一項に記載の方法。
generating guide information for a target object wearing the wearable device based on the depth information;
Generating notification information, said notification information being used to notify said target object wearing said wearable device of said depth information. 5. The method of any one of 4.
前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップをさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップを含むことを特徴とする
請求項1-5のいずれか一項に記載の方法。
further comprising determining directional position information of an object in the scene relative to the wearable device based on the first scene image;
generating guide information for a target object wearing the wearable device based on the depth information;
2. The step of generating guide information for a target object wearing the wearable device based on directional position information of the object in the scene and depth information of the object in the scene with respect to the wearable device. -5 The method according to any one of clauses.
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記方法は、
前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するステップと、
受信された前記超音波フィードバック信号に基づいて、前記場面内の対象の深度情報を更新するステップと、をさらに含むことを特徴とする
請求項1-6のいずれか一項に記載の方法。
The wearable device further includes an ultrasonic detector,
The method includes:
in response to detecting that the depth corresponding to the depth information is greater than a preset depth threshold and/or that the first scene image contains a preset type of object, the ultrasound transmitting an ultrasound detection command to a detection unit and receiving an ultrasound feedback signal detected by the ultrasound detection unit based on the ultrasound detection command;
7. The method of any one of claims 1-6, further comprising updating depth information of objects in the scene based on the received ultrasound feedback signal.
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、
前記方法は、
前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得するステップと、
前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するステップと、をさらに含むことを特徴とする
請求項1-7のいずれか一項に記載の方法。
The wearable device further includes a posture measurement unit,
The method includes:
obtaining posture information of the wearable device collected by the posture measurement unit;
generating posture correction notification information in response to determining, based on the posture information, that the posture of the target subject wearing the wearable device is in a first preset posture. A method according to any one of claims 1-7, characterized in that it comprises:
前記方法は、
前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するステップと、
前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するステップと、をさらに含み、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するステップは、
変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するステップを含むことを特徴とする
請求項8に記載の方法。
The method includes:
determining directional position information of an object in the scene relative to the wearable device based on the first scene image;
converting the directional position information into directional position information of an object in the scene with respect to the wearable device in a second preset pose based on the wearable device pose information;
generating guide information for a target object wearing the wearable device based on the depth information;
generating guide information and/or posture correction notification information for the target object wearing the wearable device, based on the converted direction position information and the depth information of the object in the scene. Item 8. The method according to item 8.
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記方法は、
前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するステップをさらに含むことを特徴とする
請求項1-9のいずれか一項に記載の方法。
The wearable device further includes an audio output unit,
The method includes:
The method further comprises generating audio navigation information based on the guide information, transmitting the audio navigation information to the audio output unit, and playing the audio navigation information to the target object at the audio output unit. A method according to any one of claims 1-9.
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含み、及び/又は
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するステップは、
前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するステップを含むことを特徴とする
請求項1-10のいずれか一項に記載の方法。
The wearable device further includes a frequency divider circuit,
obtaining a second scene image acquired by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness;
transmitting an exposure command to the frequency dividing circuit in response to the luminance of the first scene image meeting a preset luminance, and dividing the exposure command received by the frequency dividing circuit; and transmits the third exposure command obtained by the frequency dividing process to the second visible light imaging unit, and the second visible light imaging unit performs exposure control based on the third exposure command and collects the second capturing a scene image and/or capturing a second scene image collected by the depth capture unit in response to the luminance of the first scene image not meeting a preset luminance. The steps to do are
transmitting an exposure command to the frequency dividing circuit in response to the fact that the luminance of the first scene image does not meet a preset luminance; and dividing the received exposure command by the frequency dividing circuit. and transmitting the fourth exposure command obtained by the frequency dividing process to the depth photographing unit, and acquiring the second scene image collected by the depth photographing unit performing exposure control based on the fourth exposure command. A method according to any one of claims 1-10, characterized in that it comprises the steps of:
ウェアラブルデバイスによるインテリジェントガイド装置であって、前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、前記装置は、
第1可視光撮影部によって収集された第1場面画像を取得するように構成される第1画像取得モジュールと、
前記第1場面画像の輝度を検出するように構成される輝度検出モジュールと、
前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得するように構成され、及び/又は、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得するように構成される第2画像取得モジュールと、
前記第2場面画像に基づいて場面内の対象の深度情報を確定するように構成される検出モジュールと、
前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されるガイド情報生成モジュールと、を備える、インテリジェントガイド装置。
An intelligent guide apparatus based on a wearable device, the wearable device comprising a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit, the apparatus comprising:
a first image acquisition module configured to acquire a first scene image acquired by the first visible light imaging unit;
a luminance detection module configured to detect luminance of the first scene image;
configured to acquire a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; and/or a second image acquisition module configured to acquire a second scene image captured by the depth capture unit in response to the brightness of the first scene image not meeting a preset brightness;
a detection module configured to determine depth information of an object in the scene based on the second scene image;
a guide information generation module configured to generate guide information for a target subject wearing the wearable device based on the depth information.
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部に第1露光命令を送信し、前記第2可視光撮影部が前記第1露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成され、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部に第2露光命令を送信し、前記深度撮影部が前記第2露光命令に基づいて露光制御を行って収集した第2場面画像を、取得するように構成される
請求項12に記載のインテリジェントガイド装置。
wherein the second image acquisition module acquires a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; sending a first exposure command to the second visible light photographing unit in response to the fact that the luminance of the first scene image satisfies a preset luminance; configured to acquire a second scene image acquired by performing exposure control based on one exposure command;
When the second image acquisition module acquires a second scene image captured by the depth imaging unit in response to the luminance of the first scene image not meeting a preset luminance, the transmitting a second exposure instruction to the depth photographing unit in response to the fact that the luminance of the one-scene image does not satisfy a preset luminance, and the depth photographing unit performs exposure control based on the second exposure instruction; 13. An intelligent guide device according to claim 12, configured to acquire a second scene image acquired by traveling.
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第1場面画像内の場面内の対象を表すための画素点と前記第2場面画像内の場面内の対象を表すための画素点を突き合わせ、画素点対を取得し、前記画素点対に対応する視差情報、前記第1可視光撮影部と前記第2可視光撮影部との間の中心距離、及び前記第1可視光撮影部の焦点距離に基づいて、前記場面内の対象の深度情報を確定するように構成される
請求項12又は13に記載のインテリジェントガイド装置。
The detection module, when determining depth information of an object in the scene based on the second scene image, in response to the luminance of the first scene image meeting a preset luminance, the first Matching pixel points representing objects in a scene in one scene image with pixel points representing objects in a scene in the second scene image to obtain pixel point pairs, and corresponding to the pixel point pairs. Determining depth information of an object in the scene based on parallax information, a center distance between the first visible light imaging unit and the second visible light imaging unit, and a focal length of the first visible light imaging unit. 14. An intelligent guide device according to claim 12 or 13, adapted to.
前記検出モジュールは、前記第2場面画像に基づいて場面内の対象の深度情報を確定する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記第2場面画像内の場面内の対象の目標画素点を確定し、前記第2場面画像内の前記目標画素点の深度情報に基づいて、前記場面内の対象の深度情報を確定するように構成されることを特徴とする
請求項12又は13に記載のインテリジェントガイド装置。
The detection module, when determining depth information of an object in the scene based on the second scene image, in response to the brightness of the first scene image not meeting a preset brightness, the first scene image. determining a target pixel point of an in-scene object in a second scene image; and determining depth information of an in-scene object based on depth information of the target pixel point in the second scene image. Intelligent guide device according to claim 12 or 13, characterized in that:
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、通知情報を生成するように構成され、前記通知情報が、前記ウェアラブルデバイスを着用している前記目標対象に前記深度情報を通知するために使用されることを特徴とする
請求項12-15のいずれか一項に記載のインテリジェントガイド装置。
The guide information generation module is configured to generate notification information when generating guide information for a target object wearing the wearable device based on the depth information, the notification information being generated by the wearable device. 16. An intelligent guide device according to any one of claims 12-15, characterized in that it is used to communicate the depth information to the target subject wearing a .
前記検出モジュールは、さらに前記第1場面画像に基づいて、ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、ウェアラブルデバイスに対する場面内の対象の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成するように構成されることを特徴とする
請求項12-16のいずれか一項に記載のインテリジェントガイド装置。
the detection module is further configured to determine orientation position information of an object in the scene relative to the wearable device based on the first scene image;
When the guide information generation module generates guide information for a target object wearing the wearable device based on the depth information, the direction position information of the object in the scene and the depth of the object in the scene with respect to the wearable device 17. An intelligent guide apparatus according to any one of claims 12-16, arranged to generate guide information for a target subject wearing said wearable device based on the information.
前記ウェアラブルデバイスは、超音波検出部をさらに含み、
前記検出モジュールは、さらに前記深度情報に対応する深度が予め設定された深度閾値よりも大きいこと及び/又は前記第1場面画像に予め設定された種類の対象が含まれることを検出したことに応答して、前記超音波検出部に超音波検出命令を送信し、前記超音波検出部で前記超音波検出命令に基づいて検出された超音波フィードバック信号を、受信するように構成されることを特徴とする
請求項12-17のいずれか一項に記載のインテリジェントガイド装置。
The wearable device further includes an ultrasonic detector,
The detection module is further responsive to detecting that the depth corresponding to the depth information is greater than a preset depth threshold and/or that the first scene image includes a preset type of object. Then, an ultrasonic detection command is transmitted to the ultrasonic detection unit, and an ultrasonic feedback signal detected by the ultrasonic detection unit based on the ultrasonic detection command is received. An intelligent guide device according to any one of claims 12-17.
前記ウェアラブルデバイスは、姿勢測定部をさらに含み、前記検出モジュールは、さらに前記姿勢測定部によって収集されたウェアラブルデバイスの姿勢情報を取得し、前記姿勢情報に基づいて前記ウェアラブルデバイスを着用している目標対象の姿勢が第1予め設定された姿勢にあることを確定したことに応答して、姿勢矯正通知情報を生成するように構成されることを特徴とする
請求項12-18のいずれか一項に記載のインテリジェントガイド装置。
The wearable device further comprises a posture measuring unit, the detecting module further obtains posture information of the wearable device collected by the posture measuring unit, and detects a target wearing the wearable device based on the posture information. 19. Configured to generate posture correction notification information in response to determining that the posture of the subject is in the first preset posture. The intelligent guide device described in .
前記検出モジュールは、さらに前記第1場面画像に基づいて、前記ウェアラブルデバイスに対する場面内の対象の方向位置情報を確定し、前記ウェアラブルデバイスの姿勢情報に基づいて、前記方向位置情報を、第2予め設定された姿勢にあるウェアラブルデバイスに対する場面内の対象の方向位置情報に変換するように構成され、
前記ガイド情報生成モジュールは、前記深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報を生成する場合、変換後の方向位置情報及び場面内の対象の深度情報に基づいて、前記ウェアラブルデバイスを着用している目標対象に対するガイド情報及び/又は姿勢矯正通知情報を生成するように構成されることを特徴とする
請求項19に記載のインテリジェントガイド装置。
The detection module further determines directional position information of an object in the scene with respect to the wearable device based on the first scene image, and determines the directional position information based on pose information of the wearable device to a second pre- configured to convert directional position information of an object in the scene to the wearable device in a set pose;
When the guide information generation module generates guide information for a target object wearing the wearable device based on the depth information, the guide information generation module based on the converted direction position information and the depth information of the object in the scene, 20. The intelligent guide device of claim 19, configured to generate guidance information and/or posture correction notification information for a target subject wearing said wearable device.
前記ウェアラブルデバイスは、音声出力部をさらに含み、
前記ガイド情報生成モジュールは、さらに前記ガイド情報に基づいて音声ナビゲーション情報を生成し、前記音声ナビゲーション情報を前記音声出力部に送信して、前記音声出力部で前記音声ナビゲーション情報を前記目標対象に再生するように構成されることを特徴とする
請求項12-20のいずれか一項に記載のインテリジェントガイド装置。
The wearable device further includes an audio output unit,
The guiding information generating module further generates audio navigation information based on the guiding information, transmits the audio navigation information to the audio output unit, and plays the audio navigation information to the target object at the audio output unit. Intelligent guide device according to any one of claims 12-20, characterized in that it is arranged to:
前記ウェアラブルデバイスは、分周回路をさらに含み、
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記第2可視光撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていることに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第3露光命令を第2可視光撮影部に送信し、前記第2可視光撮影部で前記第3露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成され、及び/又は
前記第2画像取得モジュールは、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記深度撮影部によって収集された第2場面画像を取得する場合、前記第1場面画像の輝度が予め設定された輝度を満たしていないことに応答して、前記分周回路に露光命令を送信し、前記分周回路で受信された露光命令に対して分周処理を行い、分周処理によって得られた第4露光命令を深度撮影部に送信し、前記深度撮影部で前記第4露光命令に基づいて露光制御を行って収集した第2場面画像を取得するように構成されることを特徴とする
請求項12-21のいずれか一項に記載のインテリジェントガイド装置。
The wearable device further includes a frequency divider circuit,
wherein the second image acquisition module acquires a second scene image captured by the second visible light imaging unit in response to the brightness of the first scene image meeting a preset brightness; transmitting an exposure command to the frequency dividing circuit in response to the luminance of the first scene image meeting a preset luminance; dividing the received exposure command by the frequency dividing circuit; processing, the third exposure command obtained by the frequency dividing process is transmitted to the second visible light imaging unit, and the second visible light imaging unit performs exposure control based on the third exposure command and collects the configured to acquire two scene images; and/or the second image acquisition module, in response to the brightness of the first scene image not meeting a preset brightness, by the depth capture unit when acquiring a second scene image collected, sending an exposure command to the frequency divider circuit in response to the luminance of the first scene image not meeting a preset luminance; performs frequency division processing on the received exposure command, transmits a fourth exposure command obtained by the frequency division processing to the depth photographing unit, and performs exposure control based on the fourth exposure command in the depth photographing unit. 22. An intelligent guide device as claimed in any one of claims 12 to 21, arranged to acquire a second scene image acquired by traveling.
ウェアラブルデバイスであって、処理部、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記第1可視光撮影部は、第1場面画像を収集するように構成され、
前記第2可視光撮影部と前記深度撮影部は、第2場面画像を収集するように構成され、
前記処理部は、請求項1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ウェアラブルデバイス。
A wearable device comprising a processing unit, a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
the first visible light imaging unit is configured to acquire a first scene image;
the second visible light imager and the depth imager configured to acquire a second scene image;
A wearable device, wherein the processing unit is configured to perform an intelligent guidance method by the wearable device according to any one of claims 1-11.
信号シリアル部、信号伝送ケーブル及び信号逆シリアル部をさらに含み、
前記信号シリアル部は、前記第1可視光撮影部、第2可視光撮影部、深度撮影部に通信接続され、前記信号伝送ケーブルの両端は前記信号シリアル部と信号逆シリアル部にそれぞれ接続され、前記信号逆シリアル部は、前記処理部に通信接続され、
前記第1可視光撮影部は、さらに前記第1場面画像を前記信号シリアル部に送信するように構成され、
前記第2可視光撮影部と前記深度撮影部は、さらに前記第2場面画像を前記信号シリアル部に送信するように構成され、
前記信号シリアル部は、受信された第1場面画像と第2場面画像をシリアル信号に変換し、前記信号伝送ケーブルを介して前記信号逆シリアル部に送信するように構成され、
前記信号逆シリアル部は、受信された信号を逆シリアル化し、逆シリアル化された信号を前記処理部に送信するように構成されることを特徴とする
請求項23に記載のウェアラブルデバイス。
further comprising a signal serial part, a signal transmission cable and a signal deserial part;
the signal serial unit is connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit for communication, and both ends of the signal transmission cable are connected to the signal serial unit and the signal deserial unit, respectively; the signal deserialization unit is communicatively connected to the processing unit;
the first visible light imaging unit is further configured to transmit the first scene image to the signal serial unit;
the second visible light imaging unit and the depth imaging unit are further configured to transmit the second scene image to the signal serial unit;
The signal serial unit is configured to convert the received first scene image and the second scene image into a serial signal and transmit the serial signal to the signal deserial unit via the signal transmission cable;
24. The wearable device of Claim 23, wherein the signal deserialization unit is configured to deserialize a received signal and transmit the deserialized signal to the processing unit.
前記深度撮影部は、TOFカメラを含むことを特徴とする
請求項23又は24に記載のウェアラブルデバイス。
The wearable device according to Claim 23 or 24, wherein the depth imaging unit includes a TOF camera.
ガイドシステムであって、ウェアラブルデバイスとホストコンピュータとを備え、
前記ウェアラブルデバイスは、第1可視光撮影部、第2可視光撮影部及び深度撮影部を含み、
前記ホストコンピュータは、処理部を含み、前記処理部は、信号伝送ケーブルを介して前記第1可視光撮影部、第2可視光撮影部及び深度撮影部に接続され、前記処理部は、請求項1-11のいずれか一項に記載のウェアラブルデバイスによるインテリジェントガイド方法を実行するように構成される、ガイドシステム。
A guide system comprising a wearable device and a host computer,
The wearable device includes a first visible light imaging unit, a second visible light imaging unit and a depth imaging unit,
The host computer includes a processing unit, and the processing unit is connected to the first visible light imaging unit, the second visible light imaging unit, and the depth imaging unit via a signal transmission cable. A guidance system configured to perform an intelligent guidance method by means of a wearable device according to any one of claims 1-11.
前記ホストコンピュータには、前記処理部に接続された位置決めモジュール、ネットワークモジュール、動作状態の検出及び/又は充電管理のためのマイクロコントロールユニット、オーディオモジュールの少なくとも1つが設けられていることを特徴とする
請求項26に記載のガイドシステム。
The host computer is provided with at least one of a positioning module connected to the processing unit, a network module, a microcontrol unit for detecting operating conditions and/or charge management, and an audio module. 27. Guide system according to claim 26.
電子デバイスであって、プロセッサ、メモリ及びバスを備え、前記メモリには前記プロセッサで実行可能な機械可読命令が記憶されており、電子デバイスが動作する場合、前記プロセッサと前記メモリは、バスを介して通信し、前記機械可読命令が前記プロセッサに実行される時に、請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行する、電子デバイス。 An electronic device comprising a processor, a memory and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when the electronic device operates, the processor and the memory communicate over the bus. and performs the steps of the intelligent guide method of any one of claims 1-11 when said machine readable instructions are executed by said processor. コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサに実行される時に請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行するコンピュータ可読記憶媒体。 A computer readable storage medium storing a computer program for performing the steps of the intelligent guide method according to any one of claims 1-11 when the computer program is executed by a processor. プロセッサによってロードされて請求項1-11のいずれか一項に記載のインテリジェントガイド方法のステップを実行することに適する1つ又は複数の命令を含むコンピュータプログラム製品。 A computer program product comprising one or more instructions suitable for being loaded by a processor to carry out the steps of the intelligent guide method according to any one of claims 1-11.
JP2021564133A 2020-09-30 2021-04-29 WEARABLE DEVICE, INTELLIGENT GUIDE METHOD AND APPARATUS, GUIDE SYSTEM, STORAGE MEDIUM Pending JP2023502552A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011060870.X 2020-09-30
CN202011060870.XA CN112188059B (en) 2020-09-30 2020-09-30 Wearable device, intelligent guiding method and device and guiding system
PCT/CN2021/091150 WO2022068193A1 (en) 2020-09-30 2021-04-29 Wearable device, intelligent guidance method and apparatus, guidance system and storage medium

Publications (1)

Publication Number Publication Date
JP2023502552A true JP2023502552A (en) 2023-01-25

Family

ID=73948406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021564133A Pending JP2023502552A (en) 2020-09-30 2021-04-29 WEARABLE DEVICE, INTELLIGENT GUIDE METHOD AND APPARATUS, GUIDE SYSTEM, STORAGE MEDIUM

Country Status (4)

Country Link
JP (1) JP2023502552A (en)
KR (1) KR20220044897A (en)
CN (1) CN112188059B (en)
WO (1) WO2022068193A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188059B (en) * 2020-09-30 2022-07-15 深圳市商汤科技有限公司 Wearable device, intelligent guiding method and device and guiding system
CN114690120A (en) * 2021-01-06 2022-07-01 杭州嘉澜创新科技有限公司 Positioning method, device and system and computer readable storage medium
CN112950699A (en) * 2021-03-30 2021-06-11 深圳市商汤科技有限公司 Depth measurement method, depth measurement device, electronic device and storage medium
CN115998591A (en) * 2022-11-30 2023-04-25 微智医疗器械有限公司 Binocular disparity estimation method, visual prosthesis, and computer-readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device
JP2014067320A (en) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd Stereo camera device
CN106038183A (en) * 2016-06-29 2016-10-26 冯伟林 Wearable device and navigation system for blind people
CN109831660A (en) * 2019-02-18 2019-05-31 Oppo广东移动通信有限公司 Depth image acquisition method, depth image obtaining module and electronic equipment
US20190320102A1 (en) * 2018-04-13 2019-10-17 Qualcomm Incorporated Power reduction for dual camera synchronization

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011250928A (en) * 2010-06-01 2011-12-15 Chuo Univ Device, method and program for space recognition for visually handicapped person
WO2016047890A1 (en) * 2014-09-26 2016-03-31 숭실대학교산학협력단 Walking assistance method and system, and recording medium for performing same
CN106210536A (en) * 2016-08-04 2016-12-07 深圳众思科技有限公司 A kind of screen luminance adjustment method, device and terminal
CN106937910B (en) * 2017-03-20 2019-07-02 杭州视氪科技有限公司 A kind of barrier and ramp detection system and method
CN107888896B (en) * 2017-10-20 2020-01-03 宁波天坦智慧电子科技股份有限公司 Obstacle judgment and reminding method for blind guiding glasses and blind guiding glasses
CN108055452B (en) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 Image processing method, device and equipment
WO2020037575A1 (en) * 2018-08-22 2020-02-27 深圳市大疆创新科技有限公司 Image depth estimation method, apparatus, readable storage medium, and electronic device
CN111698494B (en) * 2018-08-22 2022-10-28 Oppo广东移动通信有限公司 Electronic device
CN109120861A (en) * 2018-09-29 2019-01-01 成都臻识科技发展有限公司 A kind of high quality imaging method and system under extremely low illumination
CN109712192B (en) * 2018-11-30 2021-03-23 Oppo广东移动通信有限公司 Camera module calibration method and device, electronic equipment and computer readable storage medium
CN110664593A (en) * 2019-08-21 2020-01-10 重庆邮电大学 Hololens-based blind navigation system and method
CN111553862B (en) * 2020-04-29 2023-10-13 大连海事大学 Defogging and binocular stereoscopic vision positioning method for sea and sky background image
CN112188059B (en) * 2020-09-30 2022-07-15 深圳市商汤科技有限公司 Wearable device, intelligent guiding method and device and guiding system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device
JP2014067320A (en) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd Stereo camera device
CN106038183A (en) * 2016-06-29 2016-10-26 冯伟林 Wearable device and navigation system for blind people
US20190320102A1 (en) * 2018-04-13 2019-10-17 Qualcomm Incorporated Power reduction for dual camera synchronization
CN109831660A (en) * 2019-02-18 2019-05-31 Oppo广东移动通信有限公司 Depth image acquisition method, depth image obtaining module and electronic equipment

Also Published As

Publication number Publication date
CN112188059B (en) 2022-07-15
CN112188059A (en) 2021-01-05
WO2022068193A1 (en) 2022-04-07
KR20220044897A (en) 2022-04-12

Similar Documents

Publication Publication Date Title
JP2023502552A (en) WEARABLE DEVICE, INTELLIGENT GUIDE METHOD AND APPARATUS, GUIDE SYSTEM, STORAGE MEDIUM
KR102448284B1 (en) head mounted display tracking system
WO2022100759A1 (en) Head-mounted display system, and six-degrees-of-freedom tracking method and apparatus therefor
WO2020192458A1 (en) Image processing method and head-mounted display device
US9245389B2 (en) Information processing apparatus and recording medium
WO2018014730A1 (en) Method for adjusting parameters of camera, broadcast-directing camera, and broadcast-directing filming system
JP2018511098A (en) Mixed reality system
CN108885342B (en) Virtual image generation system and method of operating the same
WO2021237616A1 (en) Image transmission method, mobile platform, and computer readable storage medium
WO2021098358A1 (en) Virtual reality system
CN104536579A (en) Interactive three-dimensional scenery and digital image high-speed fusing processing system and method
US11943602B1 (en) Systems and methods for spatial update latency compensation for head-tracked audio
JP6771435B2 (en) Information processing device and location information acquisition method
KR20130034125A (en) Augmented reality function glass type monitor
JP7283958B2 (en) Device with multiple markers
WO2022047828A1 (en) Industrial augmented reality combined positioning system
WO2022005734A1 (en) Rolling shutter camera pipeline exposure timestamp error determination
CN111479148B (en) Wearable device, glasses terminal, processing terminal, data interaction method and medium
JP6525740B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND PROGRAM
CN210090827U (en) Portable AR glasses implementation system
WO2020044916A1 (en) Information processing device, information processing method, and program
CN111464781A (en) Image display method, image display device, storage medium, and electronic apparatus
JP2024013947A (en) Imaging device, imaging method of imaging device and program
JP2019215782A (en) Data replacement apparatus, terminal, and data replacement program
WO2020071144A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230802