WO2023026451A1 - 物体捜索システム、物体捜索装置、物体捜索方法 - Google Patents

物体捜索システム、物体捜索装置、物体捜索方法 Download PDF

Info

Publication number
WO2023026451A1
WO2023026451A1 PCT/JP2021/031435 JP2021031435W WO2023026451A1 WO 2023026451 A1 WO2023026451 A1 WO 2023026451A1 JP 2021031435 W JP2021031435 W JP 2021031435W WO 2023026451 A1 WO2023026451 A1 WO 2023026451A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
sound
scope
unit
positional relationship
Prior art date
Application number
PCT/JP2021/031435
Other languages
English (en)
French (fr)
Inventor
恒平 竹内
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to JP2023543594A priority Critical patent/JPWO2023026451A1/ja
Priority to PCT/JP2021/031435 priority patent/WO2023026451A1/ja
Publication of WO2023026451A1 publication Critical patent/WO2023026451A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • the present invention relates to an object search system, an object search device, and an object search method used when a user searches for an object such as a falling object on the ground.
  • Patent Document 1 for example, instead of a tablet terminal, a scope (head-mounted display) worn by the worker is used, and the position information of the falling object recognized by the radar is recognized on the scope side. This work can be done particularly easily by displaying in real time the positional relationship between the operator and the falling object on the scope.
  • a scope head-mounted display
  • the present invention has been made in view of such circumstances, and aims to solve the above problems.
  • the present invention is an object search system comprising a detection device for detecting position information of an object and a display device worn by a user, wherein the detection device detects the object and obtains the position information of the object.
  • an object position information detection unit that acquires position information; and a transmission unit that transmits the position information of the object to the display device, the display device receiving the position information of the object from the detection device; a position/posture recognition unit that recognizes the position and posture of the display device; a sound output unit that outputs a plurality of types of sounds; and a control unit that recognizes the positional relationship between the two, selects one of the plurality of types of sounds according to the positional relationship, and causes the sound output unit to output the sound.
  • the display device displays a real image of an environment including the object to the user
  • the control unit sets an object recognition range, which is an area within a visual field range of the real image on the display device.
  • the sound may be switched according to the result of determining whether or not the object exists within the target recognition range.
  • the control unit may recognize a distance between the display device and the object, and select the sound according to the distance.
  • the present invention is an object searching device that is worn by a user and used when the user searches for an object, comprising a receiving unit that acquires position information of the object and recognizes its own position and orientation.
  • a position/orientation recognition unit a sound output unit that outputs a plurality of types of sounds, and a positional relationship between the object and the object based on the position and orientation of the object and positional information of the object, and according to the positional relationship a control unit that selects one of the plurality of types of sounds and causes the sound output unit to output the selected sound.
  • the control unit has a function of displaying a real image of an environment including the object to the user, and the control unit sets an object recognition range, which is an area within a visual field range of the real image, and The sound may be switched according to the result of determining whether or not the object exists within the recognition range.
  • the control unit may recognize a distance between the object searching device and the object, and select the sound according to the distance.
  • the present invention provides an object searching method for assisting the user in searching for the object by using a display device worn by the user, comprising: an object position information obtaining step of obtaining position information of the object; a position/orientation recognition step of recognizing the position and orientation of the display device; and a positional relationship recognition step of recognizing the positional relationship between the display device and the object from the position and orientation of the display device and the positional information of the object; and a sound output step of selecting one of a plurality of types of sounds set in advance according to the recognized positional relationship and outputting the selected sound from the display device.
  • FIG. 1 is a diagram showing the configuration of an object search system according to an embodiment
  • FIG. 2 is a block diagram showing the configuration of a scope (display device: object searching device) in the object searching system according to the embodiment
  • FIG. It is an example of an image recognized by a scope in the object searching system according to the embodiment.
  • 4 is a typical example (No. 1) of the positional relationship between a recognized fallen object and a scope in the object search system according to the embodiment
  • 2 is a typical example (No. 2) of the positional relationship between a recognized fallen object and a scope in the object search system according to the embodiment
  • 3 is a typical example (No.
  • This object search system is used, for example, to search for fallen objects on the ground, similar to the technique described in Patent Document 1.
  • FIG. 1 is a diagram showing a schematic configuration of an object search system 1 according to this embodiment.
  • This object search system 1 detects a falling object (object) 100 using radar, recognizes the positional relationship between itself and the falling object 100, and detects the falling object 100.
  • a person (user) 200 wears or carries a scope (display device: object search device) 20 wirelessly connected to the detection device 10 .
  • Also shown in FIG. 1 is a block diagram of the detection device 10 .
  • the detection device 10 is composed of a detection head 10A installed in an area in which the falling object 100 can be searched, and a detection device main body 10B connected thereto by wire or wirelessly.
  • a radar 11 and a camera 12 are provided in the detection head 10A.
  • the radar 11 transmits a predetermined electromagnetic wave (for example, a millimeter wave band radio wave of 60 GHz or more) toward a certain direction, and receives the reflected wave for each direction, so that the reflector Recognize the distance to each azimuth.
  • the presence of the falling object 100 serving as a reflector can be recognized from the relationship between the azimuth and this distance at this time.
  • Control of the radar 11 and its signal processing (calculation processing for distance recognition based on the time difference between transmission timing and reflected wave detection timing, etc.) are performed by the radar control unit 13 of the detector main body 10B.
  • the radar control unit 13 can recognize the position of the detection head 10A (or the radar 11) in advance, and can recognize the position information of the recognized fallen object 100 from this position and the detection result by the radar 11. . Further, when the falling object 100 is sufficiently larger than the detection resolution of the radar 11, the radar control unit 13 can also recognize the shape and size (shape information) of the falling object 100. FIG. That is, the radar 11 and the radar control unit 13 function as an object position information detection unit that recognizes the position information of the falling object 100 and the like.
  • the camera 12 can photograph the falling object 100 by having its field of view controlled by the camera control unit 14 based on the detection result of the radar 11 .
  • the detection device main body 10B includes a detection device side display unit 15 which is a display for displaying various information and images, and wirelessly transmits acquired data to the scope 20.
  • a detecting device-side wireless communication unit (transmitting unit) 16 and a detecting device control unit 17 for controlling the entire detecting device 10 are provided.
  • the detection device control unit 17 displays a radar image obtained by mapping the radar detection result (detection time) for each direction by the radar 11 and an image including the falling object 100 obtained by the camera 12 on the detection device side display unit 15 in real time. can be displayed. Further, the detection result of the radar 11, the position information and shape information of the recognized fallen object 100, and the imaging data by the camera 12 are transmitted to the scope 20 side by wireless communication by the detection device side wireless communication unit (transmitting unit) 16. be done.
  • FIG. 2 is a block diagram showing the configuration of the scope (display device: object search device) 20 in FIG.
  • the object searching method according to the embodiment of the invention is executed by this scope 20.
  • the scope 20 is provided with a scope-side wireless communication unit (receiving unit) 21 that receives data transmitted from the detecting device 10 side.
  • a position/orientation recognition unit 22 for recognizing the position and orientation (orientation) of the scope 20 in the three-dimensional space is also provided.
  • the position/attitude recognition unit 22 is provided with a position recognition unit 221 that recognizes position information of the scope 20 by receiving GNSS signals.
  • a gyro sensor 222 for recognizing the rotation angle and the like of the scope 20 is provided to recognize the orientation (orientation) of the scope 20 .
  • the position (position information) of the scope 20 is substantially equal to the position (position information) of the worker 200 wearing the scope 20, and the attitude of the scope 20 is the position of the worker 200 wearing the scope 20. It is set as the direction of the line of sight.
  • the gyro sensor 222 it is possible to detect this attitude change, especially in a short period of time.
  • the scope 20 also includes a storage unit 23, which is a non-volatile memory for storing map information in the area searched for the fallen object 100, a scope-side display unit 24, which is a head-mounted display, and a scope control unit for controlling the scope 0 as a whole.
  • a unit (control unit) 25 is provided.
  • the scope-side display unit 24 allows the operator 200 to directly see a real image (real image) through it, and at the same time displays an AR (Augmented Reality) image superimposed on this image. Information can be displayed. Therefore, the scope control unit 25 causes the scope side display unit 24 to display map information that is recognized as visible from the current situation of the scope 20 based on the recognized position information and orientation of the scope 20 as this AR information. can be done.
  • the scope 20 has an eyeglass-like shape, and the scope-side display section 24 actually occupies most of the area of the scope 20 .
  • the scope control unit 25 can recognize in advance the field of view range of the stereoscopic image on the scope 20 (scope side display unit 24) based on the detection result of the position/orientation recognition unit 22.
  • the scope control unit 25, based on the position information of the falling object 100 obtained from the detecting device 10 side via the scope-side wireless communication unit 21, determines whether this falling object 100 is present in the field of view of the scope 20 (scope-side display unit 24). It is possible to determine whether or not it exists within the range, and if it exists, a technique such as highlighting the range corresponding to the falling object 100 as AR information on the scope side display unit 24 can be used. Thereby, the worker 200 can easily search for the fallen object 100 .
  • the road surface R may not be a paved road but may be rough, or the road surface R may be in a dangerous environment where many vehicles are running. In such a case, it is not preferable for the operator 200 to constantly watch the screen of the scope-side display section 24 .
  • the positional relationship between the scope 20 and the falling object 100, particularly the distance between them, is not displayed visually such as by an image, but by outputting sound (sound signal).
  • a section 26 is provided. Note that the sound may include voice.
  • the positional relationship between the worker 200 and the falling object 100 changes from moment to moment, the worker 200 can easily judge the state of this change.
  • voice output it is preferable to use multiple types of simplified sound output by switching according to rules. This switching of the sound signal is preferably performed based on the relationship between the recognized fallen object 100 and the field of view of the worker 200 (scope 20).
  • the object searching method executed by the scope 20 includes (1) an object position information obtaining step of obtaining the position information of the falling object 100 from the detection device 10 side, (2) the position and orientation of the scope 20 (3) a positional relationship recognition step of recognizing the positional relationship between the scope 20 and the falling object 100 from the position and posture of the scope 20 and the positional information of the falling object 100; ) a sound output step of selecting and outputting one of a plurality of preset sound signals in accordance with the positional relationship;
  • the scope control unit 25 can recognize the position and size of the falling object 100 from the data received from the detection device 10 (object position information acquisition step).
  • the scope control unit 25 can recognize the position and orientation of the scope 20 by the position/orientation recognition unit 22 (position/orientation recognition step).
  • the position and size of the falling object 100 in the image can be recognized.
  • the position in the stereoscopic image displayed on the scope side display unit 24 corresponds to the direction (azimuth) viewed from the scope 20, and the size of the object in the stereoscopic image corresponds to the viewing angle of the object viewed from the scope 20. handle.
  • FIG. 3 is an example of a real image (two-dimensional image) seen from the operator 200 side in the scope 20 (scope side display unit 24) in this case.
  • a falling object 100 is present within this field of view.
  • 4a-4c show three typical situations of falling object 100 as seen from scope 20.
  • FIG. The size of the falling object 100 in the image on the scope side display unit 24 corresponds to its angle of view. growing.
  • FIG. 4a shows the largest distance (small angle of view)
  • FIG. 4c shows the smallest distance (large angle of view)
  • FIG. 4b is an intermediate state.
  • the scope control unit 25 obtains the position information of the falling object 100 and its shape (size) information from the detection device 10 side, but there is a limit to its accuracy. It is actually difficult to accurately recognize the position and size of the object 100 from only these pieces of information, and to accurately indicate the falling object 100 in the image of FIG. 3, for example. For this reason, simply, as shown in FIGS. 4a to 4c, the range of the distance to the falling object 100 and the range of the falling object 100 within the visual field can be recognized (position relationship recognition step), preferably transmitted to the operator 200 .
  • the scope control unit 25 can simplify and recognize the positional relationship between the scope 20 and the falling object 100 by the division according to the range of the distance R in FIGS. 4a to 4c.
  • FIGS. 4a to 4c FIG. 4a shows a case where the distance D between the scope 20 and the falling object 100 is large (20 m or more), and FIG. 4b shows a case where the distance D is smaller (less than 20 m and 5 m or more).
  • FIG. 4c show the situation when the distance D is the smallest (less than 5 m) when viewed from above. Each is shown below.
  • a predetermined angular range (target recognition range X) around the central axis Y is set as the visual field range in which the presence or absence of the falling object 100 is recognized as described above.
  • This angle is, for example, 5° (object recognition range X1) in the case of FIG. 4a where the distance D is the largest, and 90° (object recognition range X3) in the case of FIG. 4c where the distance D is the smallest.
  • it is set to 45° (object recognition range X2).
  • the scope control unit 25 When the situation in the upper part of FIG. 4a is recognized (when the distance D between the scope 20 and the falling object 100 is 20 m or more and the object 100 is recognized to be within the object recognition range X1), the scope control unit 25 The sound output unit 26 is caused to perform periodic sound output as shown in the lower part of FIG. 4a. This sound output is actually recognized by the operator 200 as, for example, a periodic sound of “beep-beep-beep”. Similarly, when the situation in the upper part of FIG.
  • the worker 200 can easily identify these sound signals.
  • these sound signals are not emitted, which is a silent state. For this reason, for example, when there is no falling object 100 within the object recognition range X in FIGS.
  • the worker 200 can easily recognize that fact from the sound signal. After that, the worker 200 can approach the fallen object 100 by going straight from this state.
  • FIG. 5 is a diagram showing an example of such a work situation corresponding to FIGS. 4a to 4c.
  • the state (1) in FIG. 5 is a case where the falling object 100 does not exist within the target recognition range X (X1) in FIG. can recognize and change its orientation.
  • the worker 200 can recognize that by the sound.
  • the distance D to the falling object 100 is not small, since the falling object 100 exists almost in front of the worker in this state, the worker can move forward as it is to sequentially perform (3) and (4).
  • This situation can be recognized by the sound.
  • the sound will not be emitted.
  • states (3) and (4) can be realized.
  • the worker 200 can approach the falling object 100. At this time, the worker 200 can recognize the positional relationship (distance, traveling direction) between himself and the falling object 100 only by sound.
  • the object recognition range X is also shown in the image of FIG. In FIGS. 4a to 4c and 5, the target recognition range X is shown as a horizontal azimuth angle range, but the horizontal range of the elliptical target recognition range X in FIG. It corresponds to the object recognition range X in FIG.
  • the display method of the target recognition range X can be set as appropriate.
  • FIG. 6 is a flowchart showing this object search method.
  • the scope 20 performs the object position information obtaining step of obtaining the position information of the falling object 100 from the detection device 10 side (S1).
  • the scope 20 performs a position/orientation recognition step for recognizing its own position and orientation by the position/orientation recognition unit 22 (S2).
  • a positional relationship recognition step of recognizing the positional relationship between itself and the falling object 100 is performed (S3).
  • the scope 20 performs a sound output step of selecting and outputting one of a plurality of preset sound signals according to this positional relationship (S5).
  • the worker 200 recognizes the sound output, and moves forward as described above, or changes direction (S5).
  • the above operation is repeated until the worker 200 finds the fallen object 100 (the worker 200 comes close enough to the fallen object 100) (S6: Yes).
  • the sound signal pattern is changed according to the positional relationship between the falling object 100 and the worker 200 (scope 20). good too.
  • the scope control unit 25 can display information that is effective when the worker 200 searches for the falling object 100 among the information obtained from the detection device 10 side as AR information on the scope display unit 24.
  • Such information includes the shape of the falling object 100 captured by the camera 12 (or an image including the falling object 100), as in the case of Patent Document 1, and the like.
  • the worker 200 can recognize the positional relationship between himself and the falling object 100 from the sound signal. It may be indicated by a display method on the display device) side. As such an example, there is a technique such as changing the blinking pattern when blinking the display depending on the positional relationship.
  • the operator can recognize the positional relationship between the falling object and himself (scope) only by the sound signal, so the operator always watches such a screen. It is not necessary, and it is sufficient to check this content if necessary. Therefore, the worker can easily perform this work while ensuring the safety of the surroundings.
  • the position/orientation recognition unit 22 was provided only on the scope (display device) 20 side, but it may also be provided on the detection device (detection head). In this case, even if the detection device moves, its own position and posture can be accurately recognized, and even if the detection device moves, the display device can obtain accurate position information of the falling object.
  • the radar 11 was used to acquire the position information of the falling object 100 in the detection device 10 .
  • the display device itself can recognize the position information of the falling object from the signal emitted by the falling object itself, the same operation is possible on the display device side.
  • the detection device described above is unnecessary, and the same operation can be performed using only the display device described above. That is, only the above display device can be used as an object searching device.
  • the search can be facilitated. As long as output is provided, it is possible to easily search for fallen objects.
  • the positional relationship between the falling object 100 and the scope 20 was recognized on the scope (display device) 20 side.
  • this positional relationship may be recognized by a device other than the display device, and only the sound output corresponding to this may be performed on the display device side. That is, in the object search method described above, the object position information obtaining step, the position/orientation recognition step, and the positional relationship recognition step can be appropriately performed inside or outside the display device.
  • object search system 10 detection device 10A detection head 10B detection device body 11 radar (object position information detection unit) 12 camera 13 radar control unit (object position information detection unit) 14 Camera control unit 15 Detecting device side display unit 16 Detecting device side wireless communication unit (transmitting unit) 17 detection device control unit 20 scope (display device: object search device) 21 Scope side wireless communication unit (receiving unit) 22 Position/orientation recognition unit 23 Storage unit 24 Scope side display unit 25 Scope control unit (control unit) 26 sound output unit 100 falling object (object) 200 operator (user) 221 position recognition unit 222 gyro sensor R road surface X, X1 to X3 target recognition range Y central axis

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

容易かつ安全に物体の捜索を行う。 スコープ制御部は、図4aにおける距離Rの範囲に応じた区分によって、スコープと落下物の位置関係を単純化して認識することができる。落下物(100)の有無が認識される視野範囲として、中心軸Yの周りの所定の角度の範囲(対象認識範囲X)が設定される。図4a上側の状況が認識された場合、スコープ制御部は、音出力部に、図4a下側に示されるような周期的な音出力を行わせる。

Description

物体捜索システム、物体捜索装置、物体捜索方法
 本発明は、地上における落下物等の物体をユーザが捜索する際に用いられる物体捜索システム、物体捜索装置、物体捜索方法に関する。
 レーダーなどで、広大なエリア(作業現場、グラウンド、施設内、駐車場、道路、線路、滑走路など)における障害物や落下物等(以下、落下物とする)を検出するシステムが知られている。このようなシステムでは、例えばレーダー等の検出結果に基づいて、落下物の位置(座標など)をある程度の精度で特定することができる。
 レーダーによって落下物が検出されると、従来は、その後、管理会社の作業者等が、落下物の座標情報(位置情報)に基づいて地図を見ながらこの落下物を捜索していた。この際、例えば、作業者が保持するタブレット端末に地図を表示させ、落下物の地点を強調表示することによって、作業者にこの作業を容易に行わせることができる。
 この際、例えば特許文献1に記載されるように、タブレット端末の代わりに、作業者が装着するスコープ(ヘッドマウントディスプレイ)を用い、レーダーによって認識された落下物の位置情報をスコープ側で認識し、このスコープにおいて作業者と落下物の間の位置関係を表す表示をリアルタイムで表示させることによって、この作業を特に容易に行わせることができる。
国際公開WO2019/065045
 しかしながら、作業者がこのように落下物を捜索する環境は様々であり、例えば路面状況が悪く通常の歩行が困難である場合や、車両が通行する道路上である場合もある。こうした場合には、作業者は、足元や周囲の安全も目視で確認しながら落下物を探す必要がある。こうした状況下においては、作業者がスコープの画面を注視し続けることは安全上好ましくなく、ヘッドマウントディスプレイを用いた場合でも、落下物の捜索と安全の確保を両立することは容易ではなかった。このため、容易かつ安全に落下物(物体)の捜索を行うことができる技術が求められた。
 本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。
 本発明は、物体の位置情報を検出する検出装置と、ユーザに装着される表示装置とを備えた物体捜索システムであって、前記検出装置は、前記物体を検出して前記物体の位置情報を取得する物体位置情報検出部と、前記物体の位置情報を前記表示装置に送信する送信部と、を具備し、前記表示装置は、前記物体の位置情報を前記検出装置から受信する受信部と、前記表示装置の位置及び姿勢を認識する位置・姿勢認識部と、複数種類の音を出力する音出力部と、前記表示装置の位置及び姿勢と前記物体の位置情報とから前記表示装置と前記物体の位置関係を認識し、当該位置関係に応じて前記複数種類の前記音のうちのいずれかを選択して前記音出力部に出力させる制御部と、を具備する。
 ここで、前記表示装置は、前記物体が含まれる環境の実体画像を前記ユーザに対して表示し、前記制御部は、前記表示装置における前記実体画像の視野範囲内の領域である対象認識範囲を設定し、当該対象認識範囲の中に前記物体が存在するか否かを判定した結果に応じて前記音を切り替えてもよい。
 ここで、前記制御部は、前記表示装置と前記物体との間の距離を認識し、当該距離に応じて前記音を選択してもよい。
 本発明は、ユーザが物体を捜索する作業を行う際に前記ユーザに装着されて用いられる物体捜索装置であって、前記物体の位置情報を取得する受信部と、自身の位置及び姿勢を認識する位置・姿勢認識部と、複数種類の音を出力する音出力部と、前記自身の位置及び姿勢と前記物体の位置情報とから前記自身と前記物体の位置関係を認識し、当該位置関係に応じて前記複数種類の前記音のうちのいずれかを選択して前記音出力部に出力させる制御部と、を具備する。
 ここで、前記物体が含まれる環境の実体画像を前記ユーザに対して表示する機能を有し、前記制御部は、前記実体画像の視野範囲内の領域である対象認識範囲を設定し、当該対象認識範囲の中に前記物体が存在するか否かを判定した結果に応じて前記音を切り替えてもよい。
 ここで、前記制御部は、前記物体捜索装置と前記物体との間の距離を認識し、当該距離に応じて前記音を選択してもよい。
 本発明は、ユーザに装着される表示装置を用いることによって、前記ユーザが前記物体を捜索する作業を補助する物体捜索方法であって、前記物体の位置情報を取得する物体位置情報取得工程と、前記表示装置の位置及び姿勢を認識する位置・姿勢認識工程と、前記表示装置の位置及び姿勢と前記物体の位置情報とから前記表示装置と前記物体の位置関係を認識する位置関係認識工程と、認識された前記位置関係に応じて、予め設定された複数種類の音からいずれかを選択して前記表示装置から出力させる音出力工程と、を具備する。
 本発明によれば、容易かつ安全に物体の捜索を行うことができる。
実施形態に係る物体捜索システムの構成を示す図である。 実施形態に係る物体捜索システムにおけるスコープ(表示装置:物体捜索装置)の構成を示すブロック図である。 実施形態に係る物体捜索システムにおけるスコープで認識される画像の例である。 実施形態に係る物体捜索システムにおける、認識された落下物とスコープとの間の位置関係の典型的な例(その1)である。 実施形態に係る物体捜索システムにおける、認識された落下物とスコープとの間の位置関係の典型的な例(その2)である。 実施形態に係る物体捜索システムにおける、認識された落下物とスコープとの間の位置関係の典型的な例(その3)である。 実施形態に係る物体捜索システムを用いて作業者が落下物を捜索する際の落下物とスコープとの間の位置関係の変化の例である。 実施形態に係る物体捜索方法を示すフローチャートの例である。
 以下、本発明の実施形態に係る物体捜索システムについて説明する。この物体捜索システムは、特許文献1に記載の技術と同様に、例えば地上における落下物を捜索するために用いられる。
 図1は、本実施形態に係る物体捜索システム1の概略構成を示す図である。この物体捜索システム1は、レーダーを用いて落下物(物体)100を検出し、自身と落下物100との間の位置関係を認識すると共に、この落下物100を撮像する検出装置10と、作業者(ユーザ)200が装着あるいは携帯し検出装置10と無線で接続されたスコープ(表示装置:物体捜索装置)20を有する。図1においては、検出装置10のブロック図も記載されている。
 検出装置10は、落下物100を捜索可能な領域内に設置された検出ヘッド10Aと、これと有線あるいは無線で接続された検出装置本体10Bで構成される。検出ヘッド10Aには、レーダー11とカメラ12が設けられる。レーダー11は、例えば、周知のように、所定の電磁波(例えば60GHz以上のミリ波帯の電波)をある方位に向けて送信し、この方位毎にその反射波を受信することで、この反射体までの距離を方位毎に認識する。この際の方位とこの距離の関係によって、反射体となる落下物100の存在を認識することができる。レーダー11の制御やその信号処理(送信タイミングと反射波の検出タイミングの時間差による距離の認識の算出処理等)は、検出装置本体10Bのレーダー制御部13によって行われる。
 この際、レーダー制御部13は、検出ヘッド10A(あるいはレーダー11)の位置を予め認識し、この位置と、レーダー11による検出結果から、認識された落下物100の位置情報を認識することができる。また、落下物100がレーダー11の検出分解能よりも十分に大きな場合には、レーダー制御部13は、落下物100の形状や大きさ(形状情報)も認識することができる。すなわち、レーダー11とレーダー制御部13は、落下物100の位置情報等を認識する物体位置情報検出部として機能する。
 また、カメラ12は、レーダー11の検出結果に基づいてカメラ制御部14によってその視野がカメラ制御部14によって制御されることによって、落下物100を撮影することができる。
 検出装置本体10Bには、レーダー制御部13、カメラ制御部14の他に、各種の情報や画像を表示するディスプレイである検出装置側表示部15、取得されたデータをスコープ20に向けて無線送信する検出装置側無線通信部(送信部)16、検出装置10全体の制御を行う検出装置制御部17が設けられる。検出装置制御部17は、レーダー11による方位毎のレーダー検出結果(検出時間)をマッピングしたレーダー画像や、カメラ12によって得られた落下物100を含む映像を、リアルタイムで検出装置側表示部15に表示させることができる。また、レーダー11の検出結果や、認識された落下物100の位置情報、形状情報、カメラ12による撮像データは、検出装置側無線通信部(送信部)16によって、無線通信によってスコープ20側に送信される。
 図2は、図1におけるスコープ(表示装置:物体捜索装置)20の構成を示すブロック図である。本発明の実施の形態に係る物体捜索方法は、このスコープ20によって実行される。スコープ20には、検出装置10側から送信されたデータを受信するスコープ側無線通信部(受信部)21が設けられる。また、スコープ20の3次元空間中における位置及び姿勢(向き)を認識する位置・姿勢認識部22も設けられる。位置・姿勢認識部22には、GNSS信号を受信することによってスコープ20の位置情報を認識する位置認識部221が設けられる。また、スコープ20の向き(姿勢)を認識するために、スコープ20の回転角度等を認識するジャイロセンサ222が設けられる。ここで、スコープ20の位置(位置情報)は、実質的にはスコープ20を装着した作業員200の位置(位置情報)と等しく、スコープ20の姿勢とは、スコープ20を装着した作業者200の視線の向きとして設定される。ジャイロセンサ222を用いることによって、特に短時間におけるこの姿勢の変動も検知することができる。
 また、スコープ20には、落下物100を捜索する領域内の地図情報を記憶する不揮発性メモリである記憶部23、ヘッドマウントディスプレイであるスコープ側表示部24、スコープ0全体の制御を行うスコープ制御部(制御部)25が設けられる。スコープ側表示部24は、特許文献1に記載されたように、これを通して作業者200が現実の画像(実体画像)を直接見ることができると同時に、この画像に重畳してAR(Augumented Reality)情報を表示させることができる。このため、スコープ制御部25は、認識されたスコープ20の位置情報、姿勢より、スコープ20の現在の状況から見えると認識される地図情報を、このAR情報としてスコープ側表示部24に表示させることができる。図1に示されるように、このスコープ20は眼鏡状の形状を具備しており、実際にはスコープ側表示部24はスコープ20のうちの大部分の領域を占める。
 この際、スコープ制御部25は、位置・姿勢認識部22の検出結果によってスコープ20(スコープ側表示部24)における実体画像の視野範囲を予め認識することができる。一方、スコープ制御部25は、スコープ側無線通信部21を介して検出装置10側から入手した落下物100の位置情報より、この落下物100が現在のスコープ20(スコープ側表示部24)の視野範囲内に存在するか否かを判定することができ、存在する場合には、落下物100に対応する範囲をAR情報としてスコープ側表示部24で強調表示する等の手法を用いることができる。これによって、作業者200は、この落下物100の捜索を容易に行うことができる。
 ただし、スコープ側表示部24によって作業者200が認識するのは、現実に作業者が見た実体画像、及び前記のようにAR情報として表示された2次元画像であり、自身とこの中にある落下物100との間の実際の距離を直接認識することはできない。この点において、特許文献1に記載の技術においては、作業者200(スコープ20)と落下物100の間の位置関係(距離)に応じた表示(特定表示)をスコープ側表示部24において行い、作業者200は、スコープ側表示部24を目視することのみによって、自身と落下物100との間の距離(位置関係)を認識することができる。このため、作業者200は、スコープ側表示部24を目視しながら徐々に落下物100に接近することができる。
 しかしながら、落下物100を捜索する環境(図1における路面Rに関わる状況)は様々である。例えば路面Rが整備された舗装路ではなく荒れている場合や、この路面R上を多数の車両が走行するような、危険な環境である場合もある。こうした場合には、作業者200がスコープ側表示部24の画面を常時注視することは好ましくない。
 このため、このスコープ20においては、スコープ20と落下物100との間の位置関係、特にこれらの間の距離を、画像等の視覚的な表示ではなく、音(音信号)を出力する音出力部26が設けられる。なお、音には音声が含まれてもよい。作業者200と落下物100との間の位置関係が時々刻々変化した場合におけるこの変化の状況が作業者200に容易に判断できるためには、このような音信号としては、例えば文字情報を発する音声出力を用いるよりも、規則に従って単純化された複数種類の音出力を切り替えて用いることが好ましい。この音信号の切替は、認識された落下物100と作業者200(スコープ20)の視野との間の関係に基づいて行われることが好ましい。
 このため、このスコープ20において実行される物体捜索方法は、(1)落下物100の位置情報を検出装置10側から入手する物体位置情報取得工程、(2)スコープ20の位置及び姿勢を位置・姿勢認識部22により認識する位置・姿勢認識工程、(3)スコープ20の位置及び姿勢と落下物100の位置情報とからスコープ20と落下物100の位置関係を認識する位置関係認識工程、(4)この位置関係に応じて、予め設定された複数種類の音信号からいずれかを選択して出力させる音出力工程、を具備する。
 前記の通り、スコープ制御部25は、検出装置10側から受信したデータによって、落下物100の位置とその大きさを認識することができる(物体位置情報取得工程)。一方、スコープ制御部25は、位置・姿勢認識部22によってスコープ20自身の位置及び向きを認識することができる(位置・姿勢認識工程)ため、スコープ側表示部24で作業者200が直接見る実体画像(作業者200の視野)中における落下物100の位置、大きさを認識することができる。あるいは、落下物100が実体画像の視野内にあるか否かを認識することもできる。ここで、スコープ側表示部24で表示される実体画像中の位置はスコープ20からみた方向(方位)に対応し、この実体画像中の物体の大きさはスコープ20からみたこの物体の見込み角に対応する。
 図3は、この場合におけるスコープ20(スコープ側表示部24)において作業者200側からみた実体画像(2次元画像)の例である。ここでは、落下物100がこの視野内に存在している。図4a~図4cは、スコープ20からみた落下物100の状況を典型的な3種類について示す。スコープ側表示部24の画像中における落下物100の大きさはその見込み角に対応し、落下物との間の距離が大きな場合にはこの見込み角は小さく、距離が小さな場合はこの見込み角は大きくなる。図4aは最もこの距離が大きな状態(見込み角が小さな状態)、図4cはこの距離が最も小さな状態(見込み角が大きな状態)であり、図4bは、これらの中間的な状態である。
 前記の通り、スコープ制御部25は、検出装置10側から落下物100の位置情報、その形状(大きさ)情報を入手するが、その精度には限界があり、図3の画像中における落下物100の位置、大きさをこれらの情報のみから正確に認識し、例えば図3の画像中における落下物100を正確に示すことは実際には困難である。このため、簡易的には、図4a~図4cに示されるように、落下物100までの距離がどの範囲にあるか、及び落下物100が視野内におけるどの範囲にあるかを認識し(位置関係認識工程)、作業者200に伝達することが好ましい。この際、どの視野範囲にあるかについては、前記のように画像中で認識される落下物100の大きさに対応して、距離が大きな場合には狭い視野範囲を設定し、距離が小さな場合には広い視野範囲を設定することによって、作業者200と落下物100の位置関係をより適切に表現することができる。
 スコープ制御部25は、図4a~図4cにおける距離Rの範囲に応じた区分によって、スコープ20と落下物100の位置関係を単純化して認識することができる。図4a~図4cにおいて、図4aはスコープ20と落下物100の間の距離Dが大きい(20m以上である)場合、図4bは距離Dがこれよりも小さい(20m未満5m以上である)場合、図4cは距離Dが最も小さい(5m未満である)場合、の状況を上方から見た場合を上側に、この各状況が認識された場合において音出力部26が発する音信号の発振パターンを下側に、それぞれ示す。
 図4a~図4cの上側においては、上記のように落下物100の有無が認識される視野範囲として、中心軸Yの周りの所定の角度の範囲(対象認識範囲X)が設定される。この角度は、例えば距離Dが最も大きな図4aの場合には5°(対象認識範囲X1)、距離Dが最も小さな図4cの場合には90°(対象認識範囲X3)、距離Dがこれらの中間である図4bの場合には45°(対象認識範囲X2)とされる。
 図4a上側の状況が認識された場合(スコープ20と落下物100の間の距離Dが20m以上であり物体100が対象認識範囲X1内にあると認識された場合)、スコープ制御部25は、音出力部26に、図4a下側に示されるような周期的な音出力を行わせる。この音出力は、実際には例えば「ピ ピ ピ」という周期的な音として作業者200は認識する。同様に、図4b上側の状況が認識された場合(スコープ20と落下物100の間の距離Dが20m未満5m以上であり物体100が対象認識範囲X2内にあると認識された場合)には、図4b下側に示されるような、「ピピ ピピ ピピ」という周期的な音出力を行わせる。図4c上側の状況が認識された場合(スコープ20と落下物100の間の距離Dが5m未満であり物体100が対象認識範囲X3内にあると認識された場合)には、図4c下側に示されたような「ピーー」という連続音の音出力を行わせる(以上、音出力工程)。
 作業者200は、容易にこれらの音信号を識別することができる。一方、図4a~図4cの各対象認識範囲X内に落下物100が存在しないと認識された場合には、これらの音信号は発せられない無音の状態とされる。このため、例えば図4a~図4cにおける対象認識範囲X内に落下物100がない場合から、作業者200(スコープ20)が向きを変える、あるいは移動することによって、距離Dに応じて設定された対象認識範囲X内に落下物100が入った場合には、音信号によってその旨を作業者200は容易に認識することができる。その後、この状態から直進することによって、作業者200は落下物100により接近することができる。
 図5は、このような作業の状況の例を図4a~図4cに対応させて示す図である。図5において(1)の状態は、図4aにおける対象認識範囲X(X1)内に落下物100が存在しない場合であり、この場合は、音は発せられないため、作業者200は、この旨を認識し、自身の向きを変えることができる。その結果、(2)に示されるように、対象認識範囲X1内に落下物100が入った場合、その旨を作業者200は、音によって認識することができる。この状態では落下物100までの距離Dは小さくないものの、この状態で落下物100は作業者のほぼ前方に存在するため、作業者は、そのまま前進することによって、順次(3)、(4)の状況となり、その旨を音で認識することができる。前進した際に、落下物Xがその間の距離Dに応じた対象認識範囲X内に存在しなくなった場合には、音が発せられなくなるため、(1)の場合と同様に、作業者200が自身の向きを変えることによって、(3)(4)の状態を実現することができる。
 こうした作業によって、作業者200は、落下物100に接近することができる。この際、作業者200は、自身と落下物100との間の位置関係(距離、進行方向)を音のみによって認識することができる。なお、図3の画像においては、対象認識範囲Xも示されている。図4a~図4c、図5では対象認識範囲Xは水平方向の方位角の範囲として示されているが、図3における楕円形状の対象認識範囲Xの横方向における範囲が図4a~図4c、図5における対象認識範囲Xに対応する。図3の画像における対象認識範囲Xとなる楕円形状の縦方向の幅は、認識された落下物100の大きさ等に応じて適宜設定することができる。また、対象認識範囲Xの表示方法は適宜設定することができる。
 図6は、この物体捜索方法を示すフローチャートである。ここでは、まず、前記のようにスコープ20は、落下物100の位置情報を検出装置10側から入手する物体位置情報取得工程を行う(S1)。次に、スコープ20は、自身の位置及び姿勢を位置・姿勢認識部22により認識する位置・姿勢認識工程を行い(S2)、これによって、自身の位置及び姿勢と落下物100の位置情報とから自身と落下物100の位置関係を認識する位置関係認識工程を行う(S3)。次に、スコープ20は、この位置関係に応じて、予め設定された複数種類の音信号からいずれかを選択して出力させる音出力工程を行う(S5)。作業者200は、その音出力を認識し、前記のように前進する、あるいは向きを変える等の動作をする(S5)。以上の動作は、作業者200が落下物100が見つかる(作業者200が落下物100に十分近づく)まで(S6:Yes)繰り返される。
 上記の例では、落下物100と作業者200(スコープ20)の位置関係に応じて音信号のパターンが変更されたが、パターンの変更の代わりに、あるいはこれに加えて更に音量を変化させてもよい。
 また、スコープ制御部25は、検出装置10側から入手した情報のうち、作業者200が落下物100を捜索する際に有効であるものを、スコープ表示部24においてAR情報として表示することができる。このような情報としては、特許文献1における場合と同様に、カメラ12によって撮像された落下物100の形状(あるいは落下物100が含まれる画像)等がある。
 また、上記の例では、作業者 200は音信号によって自身と落下物100の位置関係を認識することができるが、音信号だけでなく、図4a~図4cに示された位置関係をスコープ(表示装置)側における表示方式によって示してもよい。このような例としては、例えば位置関係によって表示を点滅させる際の点滅パターンを変える等の手法がある。
 このような場合でも、前記のように、作業者は音信号のみによって落下物と自身(スコープ)との間の位置関係を認識することができるため、作業者はこのような画面を常時注視する必要はなく、必要に応じてこの内容を確認すれば十分である。このため、作業者は、周囲の安全を図りながらこの作業を容易に行うことができる。
 なお、上記の例では位置・姿勢認識部22がスコープ(表示装置)20側においてのみ設けられていたが、これを検出装置(検出ヘッド)においても設けてもよい。この場合には、検出装置が移動しても自身の位置、姿勢が正確に認識され、検出装置が移動しても表示装置は落下物の正確な位置情報を得ることができる。
 また、上記の例では、検出装置10において落下物100の位置情報を取得するためにレーダー11が用いられた。しかしながら、光学的手法、音響学的手法等、他の方法によって落下物の位置情報を認識することもでき、上記と同様の動作が可能である。
 更に、例えば落下物自身が発する信号によって表示装置自身が落下物の位置情報を認識できる場合でも、表示装置側で同様の動作が可能である。こうした場合には、上記の検出装置は不要であり、上記の表示装置のみを用いて同様の動作を行わせることができる。すなわち、上記の表示装置のみを物体捜索装置として用いることができる。また、上記のように表示装置によってユーザが実体画像を視認できることによって捜索を容易とすることができるが、表示装置(物体捜索装置)においてユーザが実体画像を視認できない場合でも、上記のような音出力が行われる限りにおいて、落下物の捜索を容易に行うことができる。
 また、上記の物体捜索方法において、落下物100とスコープ20の間の位置関係はスコープ(表示装置)20側で認識された。しかしながら、表示装置以外でこの位置関係の認識を行い、表示装置側ではこれに応じた音出力のみを行ってもよい。すなわち、上記の物体捜索方法において、物体位置情報取得工程、位置・姿勢認識工程、位置関係認識工程は、表示装置の内外で適宜行うことができる。
 以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1 物体捜索システム
10 検出装置
10A 検出ヘッド
10B 検出装置本体
11 レーダー(物体位置情報検出部)
12 カメラ
13 レーダー制御部(物体位置情報検出部)
14 カメラ制御部
15 検出装置側表示部
16 検出装置側無線通信部(送信部)
17 検出装置制御部
20 スコープ(表示装置:物体捜索装置)
21 スコープ側無線通信部(受信部)
22 位置・姿勢認識部
23 記憶部
24 スコープ側表示部
25 スコープ制御部(制御部)
26 音出力部
100 落下物(物体)
200 作業者(ユーザ)
221 位置認識部
222 ジャイロセンサ
R 路面
X、X1~X3 対象認識範囲
Y 中心軸

Claims (7)

  1.  物体の位置情報を検出する検出装置と、ユーザに装着される表示装置とを備えた物体捜索システムであって、
     前記検出装置は、
     前記物体を検出して前記物体の位置情報を取得する物体位置情報検出部と、
     前記物体の位置情報を前記表示装置に送信する送信部と、
     を具備し、
     前記表示装置は、
     前記物体の位置情報を前記検出装置から受信する受信部と、
     前記表示装置の位置及び姿勢を認識する位置・姿勢認識部と、
     複数種類の音を出力する音出力部と、
     前記表示装置の位置及び姿勢と前記物体の位置情報とから前記表示装置と前記物体の位置関係を認識し、当該位置関係に応じて前記複数種類の前記音のうちのいずれかを選択して前記音出力部に出力させる制御部と、
     を具備することを特徴とする物体捜索システム。
  2.  前記表示装置は、前記物体が含まれる環境の実体画像を前記ユーザに対して表示し、
     前記制御部は、
     前記表示装置における前記実体画像の視野範囲内の領域である対象認識範囲を設定し、当該対象認識範囲の中に前記物体が存在するか否かを判定した結果に応じて前記音を切り替えることを特徴とする請求項1に記載の物体捜索システム。
  3.  前記制御部は、
     前記表示装置と前記物体との間の距離を認識し、当該距離に応じて前記音を選択することを特徴とする請求項2に記載の物体捜索システム。
  4.  ユーザが物体を捜索する作業を行う際に前記ユーザに装着されて用いられる物体捜索装置であって、
     前記物体の位置情報を取得する受信部と、
     自身の位置及び姿勢を認識する位置・姿勢認識部と、
     複数種類の音を出力する音出力部と、
     前記自身の位置及び姿勢と前記物体の位置情報とから前記自身と前記物体の位置関係を認識し、当該位置関係に応じて前記複数種類の前記音のうちのいずれかを選択して前記音出力部に出力させる制御部と、
     を具備することを特徴とする物体捜索装置。
  5.  前記物体が含まれる環境の実体画像を前記ユーザに対して表示する機能を有し、
     前記制御部は、
     前記実体画像の視野範囲内の領域である対象認識範囲を設定し、当該対象認識範囲の中に前記物体が存在するか否かを判定した結果に応じて前記音を切り替えることを特徴とする請求項4に記載の物体捜索装置。
  6.  前記制御部は、
     前記物体捜索装置と前記物体との間の距離を認識し、当該距離に応じて前記音を選択することを特徴とする請求項5に記載の物体捜索装置。
  7.  ユーザに装着される表示装置を用いることによって、前記ユーザが物体を捜索する作業を補助する物体捜索方法であって、
     前記物体の位置情報を取得する物体位置情報取得工程と、
     前記表示装置の位置及び姿勢を認識する位置・姿勢認識工程と、
     前記表示装置の位置及び姿勢と前記物体の位置情報とから前記表示装置と前記物体の位置関係を認識する位置関係認識工程と、
     認識された前記位置関係に応じて、予め設定された複数種類の音からいずれかを選択して前記表示装置から出力させる音出力工程と、
     を具備することを特徴とする物体捜索方法。
PCT/JP2021/031435 2021-08-27 2021-08-27 物体捜索システム、物体捜索装置、物体捜索方法 WO2023026451A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023543594A JPWO2023026451A1 (ja) 2021-08-27 2021-08-27
PCT/JP2021/031435 WO2023026451A1 (ja) 2021-08-27 2021-08-27 物体捜索システム、物体捜索装置、物体捜索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/031435 WO2023026451A1 (ja) 2021-08-27 2021-08-27 物体捜索システム、物体捜索装置、物体捜索方法

Publications (1)

Publication Number Publication Date
WO2023026451A1 true WO2023026451A1 (ja) 2023-03-02

Family

ID=85322958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/031435 WO2023026451A1 (ja) 2021-08-27 2021-08-27 物体捜索システム、物体捜索装置、物体捜索方法

Country Status (2)

Country Link
JP (1) JPWO2023026451A1 (ja)
WO (1) WO2023026451A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019065045A1 (ja) * 2017-09-26 2019-04-04 株式会社日立国際電気 物体捜索システム、物体捜索装置、及び物体捜索方法
JP2020053055A (ja) * 2018-09-26 2020-04-02 ネクストブイピーユー (シャンハイ) カンパニー リミテッド スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019065045A1 (ja) * 2017-09-26 2019-04-04 株式会社日立国際電気 物体捜索システム、物体捜索装置、及び物体捜索方法
JP2020053055A (ja) * 2018-09-26 2020-04-02 ネクストブイピーユー (シャンハイ) カンパニー リミテッド スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体

Also Published As

Publication number Publication date
JPWO2023026451A1 (ja) 2023-03-02

Similar Documents

Publication Publication Date Title
US11847747B2 (en) Displaying a virtual image of a building information model
US9175975B2 (en) Systems and methods for navigation
CN107992052B (zh) 目标跟踪方法及装置、移动设备及存储介质
US8508595B2 (en) Surveillance camera system for controlling cameras using position and orientation of the cameras and position information of a detected object
US9903715B2 (en) Measuring system and method for marking a known target point in a coordinate system
AU2015283942B2 (en) Machine safety dome
US11170221B2 (en) Object search system, object search device, and object search method
US11900795B2 (en) Pedestrian device and traffic safety assistance method
JP2016014647A (ja) 自車位置認識装置及び方法
CN113167581A (zh) 测量方法、测量系统和辅助测量仪器
US11294456B2 (en) Perspective or gaze based visual identification and location system
US10890430B2 (en) Augmented reality-based system with perimeter definition functionality
KR20170014451A (ko) 시야 확보 시스템, 방법 및 이를 수행하기 위한 단말
WO2023026451A1 (ja) 物体捜索システム、物体捜索装置、物体捜索方法
JP2011113245A (ja) 位置認識装置
KR101442572B1 (ko) 스마트 헬멧 및 이를 포함하는 헬멧 영상 처리 시스템
CN109991969A (zh) 一种基于深度传感器的机器人自动返航的控制方法及装置
KR20220029835A (ko) 현실공간 분할 매칭 3d공간정보 구축 시스템
WO2021131023A1 (ja) ヘッドマウント型情報出力装置
KR101672710B1 (ko) 증강현실을 이용한 실내 위치 모니터링 시스템
US11966508B2 (en) Survey system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21955063

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023543594

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE