WO2023170747A1 - 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体 - Google Patents

測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023170747A1
WO2023170747A1 PCT/JP2022/009744 JP2022009744W WO2023170747A1 WO 2023170747 A1 WO2023170747 A1 WO 2023170747A1 JP 2022009744 W JP2022009744 W JP 2022009744W WO 2023170747 A1 WO2023170747 A1 WO 2023170747A1
Authority
WO
WIPO (PCT)
Prior art keywords
positioning
imaging devices
target image
identification information
target
Prior art date
Application number
PCT/JP2022/009744
Other languages
English (en)
French (fr)
Inventor
祐 佐藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/009744 priority Critical patent/WO2023170747A1/ja
Publication of WO2023170747A1 publication Critical patent/WO2023170747A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00

Definitions

  • the present invention relates to a positioning device, a positioning system, a positioning method, and a non-transitory computer-readable medium.
  • Patent Document 1 describes a positioning device that can improve positioning accuracy using only GNSS even in a multipath environment.
  • a positioning device includes a first storage unit that stores a target image obtained by capturing a positioning target, and a first storage unit that stores identification information of a plurality of imaging devices existing at different positions and position information of the imaging device in association with each other. 2 storage unit; a control unit that acquires a captured image and identification information of the imaging device from the plurality of imaging devices; and a control unit that identifies whether or not the captured image includes the target image, and transmits the identification result to the plurality of imaging devices; an analysis section that outputs an output to a control section, the control section referring to the second storage section to obtain position information corresponding to identification information of the imaging device whose target image is included in the captured image. The acquired location information is now output to the outside.
  • a positioning system includes an external device that includes a first storage unit that stores a target image obtained by capturing a positioning target, and associates identification information of a plurality of imaging devices located at different positions with position information of the imaging device.
  • a second storage unit that stores the captured image and the identification information of the imaging device from the plurality of imaging devices; and a control unit that acquires the captured image and identification information of the imaging device from the plurality of imaging devices; and an analysis unit that identifies whether or not the target image is included in the captured image and outputs the identification result to the control unit, and the control unit refers to the second storage unit.
  • a positioning device that acquires position information corresponding to identification information of the imaging device whose captured image includes the target image, and outputs the acquired position information to the outside.
  • a positioning method stores a target image obtained by capturing a positioning target, associates and stores identification information of a plurality of imaging devices existing at different positions, and position information of the imaging device, , obtain a captured image and identification information of the imaging device, identify whether the captured image includes the target image, and identify the imaging device in which the captured image includes the target image.
  • the location information corresponding to the information is acquired and the acquired location information is output to the outside.
  • a non-transitory computer-readable medium in which a positioning program according to an embodiment is stored includes a first storage step of storing a target image obtained by capturing a positioning target, and identification information of a plurality of imaging devices existing at different positions and the imaging device. a second storage step of storing position information of the device in association with the other; an acquisition step of acquiring a captured image and identification information of the imaging device from the plurality of imaging devices; an output step of acquiring positional information corresponding to identification information of the imaging device whose target image is included in the captured image, and outputting the acquired positional information to the outside; and a computer. I made it run.
  • positioning is possible even in an environment where radio waves from GPS satellites cannot reach. Further, according to the positioning device, positioning method, and non-transitory computer-readable medium of the present invention, positioning can be performed without having a GPS reception function.
  • FIG. 1 is a block diagram showing the configuration of a positioning device according to Embodiment 1.
  • FIG. 2 is a schematic diagram showing a configuration in which a positioning device is configured as a navigation server. It is a schematic diagram showing an example of a user's usage pattern.
  • FIG. 2 is a block diagram showing the configuration of a navigation server according to a second embodiment.
  • FIG. 2 is a block diagram illustrating an example of a terminal according to a second embodiment.
  • 7 is a flowchart illustrating an example of a positioning method according to a second embodiment. 7 is a flowchart illustrating an example of a positioning method according to a second embodiment.
  • FIG. 1 is a block diagram showing the configuration of a positioning device according to the first embodiment.
  • the positioning device 100 includes a first storage section 101, a second storage section 102, a control section 103, and an analysis section 104.
  • the first storage unit 101 stores a target image obtained by capturing a positioning target.
  • the second storage unit 102 associates and stores identification information of a plurality of imaging devices located at different locations and position information of the imaging device.
  • the control unit 103 acquires captured images and identification information of the imaging devices from a plurality of imaging devices. Then, the control unit 103 refers to the second storage unit 102 and acquires position information corresponding to the identification information of the imaging device whose captured image includes the target image. Then, the control unit 103 outputs the acquired position information to the outside.
  • the analysis unit 104 identifies whether a target image is included in the captured image. The analysis unit 104 then outputs the identification result to the control unit 103.
  • positioning device of the first embodiment positioning is possible even in an environment where radio waves from GPS satellites cannot reach. Further, according to the positioning device of Embodiment 1, positioning can be performed without having a GPS reception function.
  • FIG. 2 is a schematic diagram showing a configuration in which the positioning device is configured as a navigation server.
  • the navigation server 201 is connected to cameras 202-1 to 202-n (n is any natural number).
  • the cameras 202-1 to 202-n are each fixed at a specific position.
  • the cameras 202-1 to 202-n may be fixed to the ceiling or wall of the room.
  • the cameras 202-1 to 202-n transmit captured images to the navigation server 201 at any time.
  • the cameras 202-1 to 202-n may transmit information for identifying the cameras together with the captured images.
  • FIG. 3 is a schematic diagram showing an example of a user's usage pattern.
  • the navigation server 201 is connected to the terminal 301 via the Internet or wirelessly.
  • the navigation server 201 then transmits the user's location and navigation information to the terminal.
  • the navigation server 201 has an individual identification (image AI analysis) application, map data, and a web server function. Then, the terminal 301 uses the web browsing function to communicate with the navigation server 201.
  • image AI analysis image AI analysis
  • FIG. 4 is a block diagram showing the configuration of the navigation server according to the second embodiment.
  • the navigation server 201 in FIG. 4 is the positioning device in FIG. 1 with a navigation function added.
  • the navigation server 201 includes an AI analysis section 401, a first storage section 402, a second storage section 403, a third storage section 404, a route creation section 405, a control section 406, and a web server section. 407.
  • the control unit 406 is connected to the registration camera 410 and the cameras 202-1 to 202-n.
  • the AI analysis unit 401 identifies whether a target image is included in the captured image from the control unit 406. For example, the AI analysis unit 401 extracts a person from a captured image input from a camera. Then, the AI analysis unit 401 enables individual identification by extracting characteristic amounts (generally, faces, clothes, etc.) that identify each person for each person. Then, the AI analysis unit 401 outputs the identification result to the control unit 406.
  • characteristic amounts generally, faces, clothes, etc.
  • the first storage unit 402 stores a target image captured by the registration camera 410 of the positioning target. Further, the first storage unit 402 outputs the target image to the AI analysis unit 401 according to instructions from the control unit 406.
  • the second storage unit 403 stores identification information of a plurality of cameras 202-1 to 202-n provided at different positions and position information of the cameras 202-1 to 202-n in association with each other. These identification information and location information are information set in advance.
  • the third storage unit 404 stores map information of a navigation range.
  • the route creation unit 405 creates a route to the destination of the target person (the person in the target image, that is, the person who is the positioning target).
  • the control unit 406 receives a target image of the positioning target from the registration camera 410. Then, the control unit 406 outputs the target image to the first storage unit 402. Further, the control unit 406 receives captured images from the cameras 202-1 to 202-n. The control unit 406 then outputs the target image and the captured image to the analysis unit 104.
  • control unit 406 refers to the second storage unit 403 and acquires position information corresponding to the identification information of the camera whose captured image includes the target image. Then, the control unit 406 outputs the acquired position information to the web server unit 407.
  • the web server unit 407 provides a user interface to the target person. That is, the web server unit 407 functions as a communication interface with the terminal.
  • FIG. 5 is a block diagram illustrating an example of a terminal according to the second embodiment.
  • the terminal 301 includes an information input section 501 and an information display section 502.
  • the information input unit 501 inputs information to the navigation server 201.
  • the information input unit 501 then transmits the information to the navigation server 201.
  • the information display unit 502 receives information generated by the navigation server 201.
  • the information display section 502 then displays this information.
  • 6 and 7 are flowcharts illustrating an example of the positioning method according to the second embodiment.
  • step S601 the target person (mobile object) using the navigation connects to the web server unit 407 of the navigation server 201 using the web browser of the terminal 301 that he/she owns, and applies for starting to use the navigation system.
  • step S602 the navigation server 201 provides an identification ID to the applicant.
  • step S603 the subject is located in front of the subject (mobile object) registration camera 410 installed at a predetermined position.
  • step S604 mobile object registration is selected from the function menu of the navigation server 201 from the terminal 301 on the spot, and the ID and destination information given by the navigation server 201 are input.
  • step S605 the navigation server 201 determines the optimal route (minimum distance, etc.) from the target person's current position, that is, the position of the mobile object registration camera 410, to the destination input by the target person from the map information and creates a guide route. do.
  • step S606 the created guide route is displayed on the target person's terminal 301 as a guide map that depicts the target person's current position and the route to the destination on a map by the web server unit 407 built in the navigation server 201. Is displayed.
  • step S607 the subject's own image is then photographed by the camera 410 for mobile object registration.
  • the camera 410 for mobile body registration is not a fixed dedicated camera, but may be any one of a plurality of cameras for mobile body registration.
  • the camera 410 for mobile object registration may be provided separately from the (monitoring) cameras 202-1 to 202-n, or may also serve as the (monitoring) cameras 202-1 to 202-n.
  • step S608 the subject starts moving according to the guide route displayed on the terminal 301.
  • step S609 the navigation server 201 causes the AI analysis unit 401 to analyze the photographed image of the subject.
  • step S610 individual identification information is generated.
  • step S611 the ID is associated with the ID input by the subject and stored in the first storage unit 402.
  • step S612 the navigation server 201 collects captured images from the plurality of connected surveillance cameras 202-1 to 202-n. Then, in step S613, the captured image is sent to the AI analysis unit 401 and a person appearing in the camera is extracted. Then, in step S614, a comparison with the registered subject data is performed. In step S615, the camera photographing the subject is determined as a result of the matching. In step S616, the position of the camera photographing the subject is acquired from the second storage unit, and the position of the camera photographing the subject is recorded as the current position of the subject (moving body). In step S617, the target person's current location is displayed on the target person's terminal 301 (web browser) via the web server section.
  • the navigation server 201 updates the subject's current position information and displays it on the subject's terminal 301 every time the subject's current position changes due to movement of the subject.
  • step S618 if the target person reaches the destination or cancels the use of navigation on the way, the target person selects end of use from the function menu of the navigation server 201 from the terminal 301, and proceeds to step S619. If the subject has not reached the destination, the process returns to step S612.
  • step S619 a usage completion instruction is sent from the terminal 301 to the navigation server 201.
  • step S620 the navigation server 201 deletes the recorded identification information (ID and captured image) of the target person from the server in response to a usage termination instruction from the target person.
  • the moving object photographed by the surveillance camera is individually identified by image AI analysis on the navigation server 201, and the position of the identified mobile object is recorded in real time from the position of the photographed camera.
  • the current position of the moving object is then communicated to the moving object by superimposing the recorded position of the moving object on the surrounding map information and displaying it on the terminal 301 (such as one with a web browsing function) included in the moving object.
  • the terminal 301 such as one with a web browsing function
  • the present invention is not limited to the above.
  • the configuration and details of the present invention can be modified in various ways that can be understood by those skilled in the art within the scope of the invention.
  • the present invention is applicable as long as the positioning target is movable. That is, the positioning target is not limited to humans, but may also be animals or vehicles.
  • communication between the navigation server and the terminal is not limited to the Web protocol, but any protocol that allows communication between the server and the terminal can be used.
  • the registration camera 410 and the cameras 202-1 to 202-n are not limited to cameras fixed to the ceiling or wall.
  • the registration camera 410 and the cameras 202-1 to 202-n may be imaging devices (cameras) that are movable themselves.
  • the registration camera 410 and the cameras 202-1 to 202-n may be cameras mounted on a drone. Furthermore, in the above embodiment, ID assignment and registration of target person image information are performed through the processes from step S601 to step S603, but when applying for use in step S601, image information of the target person is sent from the terminal 301 to the navigation server. By sending the image information to 201 and registering it, the image information of the target person and the ID may be linked. Furthermore, input of a destination may be accepted at the time of applying for use in S601, and the image information, ID, and destination information of the target person may be linked. Thereby, the ID is input by the subject positioning himself in front of the subject registration camera 410 and performing facial authentication. Further, in the first and second embodiments described above, the first storage unit 101 is provided inside the positioning device 100, but it may be provided outside the positioning device 100 so that the positioning device 100 can refer to it.
  • the present invention has been described as a hardware configuration, but the present invention is not limited to this.
  • the present invention can also implement arbitrary processing by having a CPU (Central Processing Unit) execute a computer program. )
  • CPU Central Processing Unit
  • Non-transitory computer-readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)).
  • the program may also be supplied to the computer via various types of transitory computer readable media. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can provide the program to the computer via wired communication channels, such as electrical wires and fiber optics, or wireless communication channels.

Abstract

GPS衛星からの電波が届かない環境でも測位できる測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体を提供すること。 測位装置(100)は、測位対象を撮像した対象画像を記憶する第1記憶部(101)と、異なる位置に備えられた撮像装置の識別情報と撮像装置の位置情報とを関連付けて記憶する第2記憶部(102)と、複数の撮像装置から、撮像画像と撮像装置の識別情報を取得する制御部(103)と、撮像画像に、対象画像が含まれているか否か識別し、識別結果を制御部(103)に出力する分析部(104)と、を備え、制御部(103)は、第2記憶部(102)を参照し、撮像画像に対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する。

Description

測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体
 本発明は測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体に関する。
 対象の位置を測定する方法として、GPS(Global Positioning System)衛星からの電波送信と移動体に具備したGPS受信機の組み合わせがある。GPSを含むGNSS(Global Navigation Satellite System)において、特許文献1には、マルチパス環境であってもGNSSのみで測位精度を向上できる測位装置が記載されている。
特開2022-020907号公報
 しかし、GPS衛星からの電波が届きにくい環境では測位が困難であるという問題があった。例えば、GPS衛星からの電波が届きにくい地下施設等では機能しないことがあった。また、移動体はGPS受信機能を備える端末を用意する必要があった。
 一実施形態の測位装置は、測位対象を撮像した対象画像を記憶する第1記憶部と、異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する第2記憶部と、前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得する制御部と、前記撮像画像に、前記対象画像が含まれているか否か識別し、識別結果を前記制御部に出力する分析部と、を備え、前記制御部は、前記第2記憶部を参照し、前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力するようにした。
 一実施形態の測位システムは、測位対象を撮像した対象画像を記憶する第1記憶部を備える外部装置と、異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する第2記憶部と、前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得する制御部と、前記外部装置の前記第1記憶部に記憶された前記対象画像を参照し、そして前記撮像画像に、前記対象画像が含まれているか否か識別し、識別結果を前記制御部に出力する分析部と、を備え、前記制御部は、前記第2記憶部を参照し、前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する測位装置と、を備えるようにした。
 一実施形態の測位方法は、測位対象を撮像した対象画像を記憶し、異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶し、前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得し、前記撮像画像に、前記対象画像が含まれているか否か識別し、前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力するようにした。
 一実施形態の測位プログラムが格納された非一時的なコンピュータ可読媒体は、測位対象を撮像した対象画像を記憶する第1記憶ステップと、異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する第2記憶ステップと、前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得する取得ステップと、前記撮像画像に、前記対象画像が含まれているか否か識別する識別ステップと、前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する出力ステップとコンピュータに実行させるようにした。
 本発明の測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体によれば、GPS衛星からの電波が届かない環境でも測位できる。また、本発明の測位装置、測位方法及び非一時的なコンピュータ可読媒体によれば、GPS受信機能を備えることなく測位できる。
実施の形態1にかかる測位装置の構成を示すブロック図である。 測位装置がナビゲーションサーバとして構成される形態を示す略図である。 ユーザの利用形態の一例を示す略図である。 実施の形態2にかかるナビゲーションサーバの構成を示すブロック図である。 実施の形態2にかかる端末の一例を示すブロック図である。 実施の形態2にかかる測位方法の一例を示すフローチャートである。 実施の形態2にかかる測位方法の一例を示すフローチャートである。
 (実施の形態1)
 以下、図面を参照して本発明の実施の形態について説明する。図1は、実施の形態1にかかる測位装置の構成を示すブロック図である。図1において、測位装置100は、第1記憶部101と、第2記憶部102と、制御部103と、分析部104とを備える。
 第1記憶部101は、測位対象を撮像した対象画像を記憶する。
 第2記憶部102は、異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する
 制御部103は、複数の撮像装置から、撮像画像と撮像装置の識別情報を取得する。そして、制御部103は、第2記憶部102を参照し、撮像画像に対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得する。そして、制御部103は、取得した位置情報を外部に出力する
 分析部104は、撮像画像に、対象画像が含まれているか否か識別する。そして、分析部104は、識別結果を制御部103に出力する。
 このように実施の形態1の測位装置によれば、GPS衛星からの電波が届かない環境でも測位できる。また、実施の形態1の測位装置によれば、GPS受信機能を備えることなく測位できる。
 (実施の形態2)
 実施の形態2では、測位装置がナビゲーションサーバとして構成される例について説明する。図2は、測位装置がナビゲーションサーバとして構成される形態を示す略図である。
 図2に示すようにナビゲーションサーバ201は、カメラ202-1~202-n(nは任意の自然数)と接続している。カメラ202-1~202-nはそれぞれ特定の位置に固定されたカメラである。例えばカメラ202-1~202-nは室内の天井または壁面に固定されてもよい。そして、カメラ202-1~202-nは撮像した画像を随時ナビゲーションサーバ201に送信する。カメラ202-1~202-nは撮像した画像と共にカメラを識別する情報を送信するようにしてもよい。
 そして、ナビゲーションサーバ201は、カメラ202-1~202-nが撮像した画像に基づいてユーザの位置を特定する。そしてナビゲーションサーバ201はユーザにユーザの位置を伝えると共に、ナビゲーション情報を伝える。図3は、ユーザの利用形態の一例を示す略図である。
 図3に示すようにナビゲーションサーバ201は、端末301とインターネットまたは無線等により接続している。そして、ナビゲーションサーバ201は、端末にユーザの位置及びナビゲーション情報を送信する。
 例えば、ナビゲーションサーバ201は、個体識別(画像AI分析)アプリケーション、地図データ及びWebサーバ機能を有する。そして端末301は、Webブラウズ機能を用いて、ナビゲーションサーバ201は通信を行う。
 次に、ナビゲーションサーバの内部構成について説明する。図4は、実施の形態2にかかるナビゲーションサーバの構成を示すブロック図である。図4のナビゲーションサーバ201は、図1の測位装置にナビゲーション機能を加えたものである。図4において、ナビゲーションサーバ201は、AI分析部401と、第1記憶部402と、第2記憶部403と、第3記憶部404と、ルート作成部405と、制御部406と、Webサーバ部407とを備える。また、制御部406は、登録用カメラ410及びカメラ202-1~202-nと接続している。
 AI分析部401は、制御部406から撮像画像に、対象画像が含まれているか否か識別する。例えば、AI分析部401は、カメラから入力された撮像画像から人物を抽出する。そして、AI分析部401は、個々の人物を識別する特徴量(一般には顔や服装などが考えられます)を人物ごとに抽出することで、個体識別を可能にする。そして、AI分析部401は、識別結果を制御部406に出力する。
 第1記憶部402は、登録用カメラ410により測位対象を撮像した対象画像を記憶する。また、第1記憶部402は、制御部406の指示に従って、対象画像をAI分析部401に出力する。
 第2記憶部403は、異なる位置に備えられた複数のカメラ202-1~202-nの識別情報とカメラ202-1~202-nの位置情報とを関連付けて記憶する。これらの識別情報及び位置情報はあらかじめ設定されている情報である。
 第3記憶部404は、ナビゲーションを行う範囲の地図情報を記憶する。
 ルート作成部405は、対象者(対象画像の人物、すなわち測位対象となる人物)の目的地までのルートを生成する。
 制御部406は、測位対象を撮像した対象画像を登録用カメラ410により受け取る。そして、制御部406は、対象画像を第1記憶部402に出力する。また、制御部406は、カメラ202-1~202-nから撮像画像を受け取る。そして、制御部406は、対象画像と撮像画像を分析部104に出力する。
 そして、制御部406は、第2記憶部403を参照し、撮像画像に対象画像が含まれている当該カメラの識別情報に対応する位置情報を取得する。そして、制御部406は、取得した位置情報をWebサーバ部407に出力する。
 Webサーバ部407は、対象者へのユーザインタフェースを提供する。すなわち、Webサーバ部407は、端末との通信インターフェースとして機能する。
 次に、端末の内部構成について説明する。図5は、実施の形態2にかかる端末の一例を示すブロック図である。図5において、端末301は、情報入力部501と、情報表示部502とを備える。
 情報入力部501は、ナビゲーションサーバ201への情報入力を行う。そして、情報入力部501は、情報をナビゲーションサーバ201に送信する。
 情報表示部502は、ナビゲーションサーバ201にて生成される情報を受け取る。そして、情報表示部502は、この情報を表示する。
 次に、ナビゲーションサーバ201と端末301の動作及び通信について説明する。図6及び図7は、実施の形態2にかかる測位方法の一例を示すフローチャートである。
 ステップS601において、ナビゲーションを利用する対象者(移動体)は、所有する端末301のWebブラウザにてナビゲーションサーバ201のWebサーバ部407へ接続し、ナビゲーションシステムの利用開始を申請する。
 ステップS602において、ナビゲーションサーバ201は申請した対象者に対し識別IDを付与する。
 ステップS603において、対象者は所定の位置に設置された対象者(移動体)登録用カメラ410の前に位置する。
 ステップS604において、その場で端末301よりナビゲーションサーバ201の機能メニュー内より移動体登録を選択し、ナビゲーションサーバ201により付与されたIDと目的地情報を入力する。
 ステップS605において、ナビゲーションサーバ201は対象者の現在位置すなわち移動体登録用カメラ410の位置から対象者の入力した目的地までの最適経路(距離が最小など)を地図情報から決定し案内ルートを作成する。
 ステップS606において、作成された案内ルートは、ナビゲーションサーバ201に内蔵するWebサーバ部407により、地図上に対象者の現在位置と目的地までの経路を描画した案内図として対象者の端末301上に表示される。
 ステップS607において、次に対象者は移動体登録用のカメラ410により自身の姿が撮影される。なお、移動体登録用のカメラ410は固定的な専用カメラとせず、複数ある移動体登録用カメラの任意のカメラとすることも、可能である。また、移動体登録用のカメラ410は(監視)カメラ202-1~202-nとは別に設けてもよいし、(監視)カメラ202-1~202-nを兼ねてもよい。
 ステップS608において、対象者は端末301上に表示される案内ルートに従い移動を開始する。
 ステップS609において、ナビゲーションサーバ201は、撮影した対象者画像をAI分析部401にて分析する。
 そして、ステップS610において、個体識別情報を生成する。そしてステップS611におい、対象者が入力したIDと紐づけたうえで第1記憶部402に保存する。
 ステップS612において、ナビゲーションサーバ201は接続された複数の監視カメラ202-1~202-nからの撮像画像を収集する。そして、ステップS613において、AI分析部401に撮像画像を送りカメラ内に映る人物を抽出する。そして、ステップS614において、登録された対象者データとの突合を行う。ステップS615において、突合の結果対象者を撮影しているカメラが判明する。ステップS616において、対象者を撮影しているカメラの位置を第2記憶部から取得し、対象者を撮影しているカメラの位置を対象者(移動体)の現在位置として記録する。ステップS617において、対象者の現在位置はWebサーバ部を経由して対象者の端末301(Webブラウザ)上へ表示される。
 ナビゲーションサーバ201は、対象者の移動により現在位置が変わるごとに対象者現在位置情報を更新し対象者の端末301へ表示する。
 ステップS618において、対象者が目的地へ到達した場合あるいは途中でナビゲーションの利用を中止する場合、対象者は端末301よりナビゲーションサーバ201の機能メニューにて利用終了を選択して、ステップS619に進む。対象者が目的地へ到達していない場合、ステップS612に戻る。
 ステップS619において、端末301からナビゲーションサーバ201に利用修了指示が送信される。
 ステップS620において、ナビゲーションサーバ201は対象者からの利用終了指示により、記録していた対象者の識別情報(IDおよび撮像画像)をサーバ内から消去する。
 以上の動作により、監視カメラにより撮影された移動体をナビゲーションサーバ201上の画像AI分析により個体識別を行い、撮影したカメラの位置から識別した移動体の位置をリアルタイムに記録する。そして、記録された移動体の位置を周辺の地図情報と重ね合わせて移動体の備える端末301(webブラウズ機能があるもの等)に表示することで、移動体の現在位置を移動体に伝達する。あわせて、移動体の現在地から目的地までの経路を移動体の備える端末301上に示すことで、移動体を目的地まで案内するナビゲーションシステムを実現する。
 このように、実施の形態2のナビゲーションサーバによれば、専用のGPSシステムに依存することなく、汎用の監視カメラ、サーバ、端末301(スマートフォン等)によりナビゲーションシステムを構築することが可能になる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。例えば、測位対象は移動可能なものであれば適用可能である。すなわち、測位対象は人に限定されず、動物または車両であってもよい。また、ナビゲーションサーバと端末の通信はWebのプロトコルに限定されず、サーバと端末で通信できるプロトコルであれば、いずれも利用できる。また、登録用カメラ410及びカメラ202-1~202-nは、天井や壁面に固定されているカメラに限定されない。例えば、登録用カメラ410及びカメラ202-1~202-nは、撮像装置(カメラ)自身移動可能な装置であってもよい。具体的には、登録用カメラ410及びカメラ202-1~202-nは、ドローンに搭載されたカメラであってもよい。また、上記実施の形態では、ステップS601からステップS603の処理により、IDの付与と対象者画像情報の登録を行っているが、ステップS601の利用申請時に対象者の画像情報を端末301からナビゲーションサーバ201に送信して登録することで、対象者の画像情報とIDを紐づけるようにしてもよい。さらに、S601の利用申請時に目的地の入力を受け付け、対象者の画像情報、ID及び目的地情報を紐づけるようにしてもよい。これにより、対象者が対象者登録用カメラ410の前に位置して顔認証をすることによりIDが入力される。また、上記実施の形態1及び2では、第1記憶部101を測位装置100内に設けているが、測位装置100の外部に設け、測位装置100が参照できるようにしてもよい。
 また、上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。)
 プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
100 測位装置
101、402 第1記憶部
102、403 第2記憶部
103、406 制御部
104 分析部
201 ナビゲーションサーバ
202-1~202-n カメラ
301 端末
401 AI分析部
404 第3記憶部
405 ルート作成部
407 Webサーバ部
410 登録用カメラ
501 情報入力部
502 情報表示部

Claims (8)

  1.  測位対象を撮像した対象画像を記憶する第1記憶部と、
     異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する第2記憶部と、
     前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得する制御部と、
     前記撮像画像に、前記対象画像が含まれているか否か識別し、識別結果を前記制御部に出力する分析部と、を備え、
     前記制御部は、前記第2記憶部を参照し、前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する測位装置。
  2.  対象者の目的地までのルートを作成するルート作成部を備える、請求項1に記載の測位装置。
  3.  ナビゲーションを行う範囲の地図情報を記憶する第3記憶部を備え、
     前記制御部は、対象者の位置、対象者の目的地までのルート及び地図情報を外部に出力する請求項2に記載の測位装置。
  4.  対象者が目的地に到着していない場合、
     前記制御部は、再び異なる位置に備えられた複数の撮像装置を取得し、
     前記分析部は、再び前記撮像画像に、前記対象画像が含まれているか否か識別する請求項2に記載の測位装置。
  5.  対象者が目的地に到着した場合、
     前記制御部は、対象者の画像を第1記憶部から削除する請求項2に記載の測位装置。
  6.  測位対象を撮像した対象画像を記憶する第1記憶部を備える外部装置と、
      異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する第2記憶部と、
      前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得する制御部と、
      前記外部装置の前記第1記憶部に記憶された前記対象画像を参照し、そして前記撮像画像に、前記対象画像が含まれているか否か識別し、識別結果を前記制御部に出力する分析部と、を備え、
      前記制御部は、前記第2記憶部を参照し、前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する測位装置と、
     を備える測位システム。
  7.  測位対象を撮像した対象画像を記憶し、
     異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶し、
     前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得し、
     前記撮像画像に、前記対象画像が含まれているか否か識別し、
     前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する測位方法。
  8.  測位対象を撮像した対象画像を記憶する第1記憶ステップと、
     異なる位置に存在する複数の撮像装置の識別情報と前記撮像装置の位置情報とを関連付けて記憶する第2記憶ステップと、
     前記複数の撮像装置から、撮像画像と前記撮像装置の識別情報を取得する取得ステップと、
     前記撮像画像に、前記対象画像が含まれているか否か識別する識別ステップと、
     前記撮像画像に前記対象画像が含まれている当該撮像装置の識別情報に対応する位置情報を取得し、取得した位置情報を外部に出力する出力ステップとコンピュータに実行させる測位プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2022/009744 2022-03-07 2022-03-07 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体 WO2023170747A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/009744 WO2023170747A1 (ja) 2022-03-07 2022-03-07 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/009744 WO2023170747A1 (ja) 2022-03-07 2022-03-07 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023170747A1 true WO2023170747A1 (ja) 2023-09-14

Family

ID=87936361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009744 WO2023170747A1 (ja) 2022-03-07 2022-03-07 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023170747A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037954A1 (ja) * 2016-08-26 2018-03-01 ソニー株式会社 移動体制御装置、移動体制御方法、及び、移動体
JP2019185083A (ja) * 2018-04-02 2019-10-24 パナソニック株式会社 買物支援システム及び買物支援方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037954A1 (ja) * 2016-08-26 2018-03-01 ソニー株式会社 移動体制御装置、移動体制御方法、及び、移動体
JP2019185083A (ja) * 2018-04-02 2019-10-24 パナソニック株式会社 買物支援システム及び買物支援方法

Similar Documents

Publication Publication Date Title
US9237267B2 (en) Imaging systems, moving bodies, and imaging control methods for remote monitoring of a moving target
US7272502B2 (en) RFID tag installation system using a vehicle and a method thereof
US20130211718A1 (en) Apparatus and method for providing indoor navigation service
KR101286169B1 (ko) 무선 통신 단말의 위치 측정 장치, 위치 측정 방법 및 핑거프린트 정보 수집 방법, 핑거프린트 서버 및 그의 위치 제공 방법
JP4787813B2 (ja) 検知対象検知システム
KR101413011B1 (ko) 위치 정보 기반 증강현실 시스템 및 제공 방법
KR20100041926A (ko) 위치 확인 서비스 시스템 및 방법, 그리고 이를 위한 위치정보 생성 방법
KR20150124535A (ko) 실내지도와 와이파이맵 동시 생성 방법 및 시스템
KR101573289B1 (ko) 위치 측정 방법 및 이를 이용한 휴대 단말기
KR20140066570A (ko) 네비게이션 시스템 및 방법
CN115134519A (zh) 远程操作系统、远程操作移动体、远程操作方法以及计算机可读介质
WO2023170747A1 (ja) 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体
KR102029334B1 (ko) 지피에스 정보의 해당 영상이미지를 업그레이드한 영상처리 시스템
CN110268438B (zh) 图像数据库构建装置、位置和倾斜估计装置以及图像数据库构建方法
CN110730326B (zh) 摄像系统、摄像装置、通信终端以及计算机可读存储介质
CN114637372A (zh) 具有重叠虚拟信息的便携式显示设备
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
CN109564084B (zh) 记录介质、位置推断装置以及位置推断方法
JP2020051856A (ja) カメラのキャリブレーション方法および装置
CN114071003B (zh) 一种基于光通信装置的拍摄方法和系统
JP6913707B2 (ja) 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
JP6913708B2 (ja) 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
JP2019139642A (ja) 位置検出装置、位置検出システム、及び位置検出方法
JP7039535B2 (ja) 生成装置、生成方法、および生成プログラム
WO2022065304A1 (ja) 経路案内装置、経路案内システム、及び経路案内装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22930733

Country of ref document: EP

Kind code of ref document: A1