JP7360854B2 - Program, information processing method, and information processing device - Google Patents

Program, information processing method, and information processing device Download PDF

Info

Publication number
JP7360854B2
JP7360854B2 JP2019161165A JP2019161165A JP7360854B2 JP 7360854 B2 JP7360854 B2 JP 7360854B2 JP 2019161165 A JP2019161165 A JP 2019161165A JP 2019161165 A JP2019161165 A JP 2019161165A JP 7360854 B2 JP7360854 B2 JP 7360854B2
Authority
JP
Japan
Prior art keywords
information
information processing
processing device
image data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019161165A
Other languages
Japanese (ja)
Other versions
JP2021039586A (en
Inventor
結 横田
俊成 中村
優衣 稲富
Original Assignee
neuet株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by neuet株式会社 filed Critical neuet株式会社
Priority to JP2019161165A priority Critical patent/JP7360854B2/en
Publication of JP2021039586A publication Critical patent/JP2021039586A/en
Application granted granted Critical
Publication of JP7360854B2 publication Critical patent/JP7360854B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 公開年月日 令和1年7月16日 公開場所 メルチャリのアプリケーション 〔刊行物等〕掲載年月日 令和1年7月18日 掲載アドレス https://apps.apple.com/jp/app/id1341611829Application of Article 30, Paragraph 2 of the Patent Act Publication date: July 16, 2020 Publication location: Melchari application [Publications, etc.] Publication date: July 18, 2020 Publication address: https://apps .. apple. com/jp/app/id1341611829

本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to a program, an information processing method, and an information processing device.

近年、乗り物をシェアするサービスが増えてきており、シェアする乗り物の貸出、返却を管理するためのシステム開発が行われている。例えば、レンタル車両に発信機を搭載し、ユーザの携帯端末と通信を行うことで、車両を管理する技術が公開されている
(例えば、特許文献1参照)。
In recent years, ride sharing services have been increasing, and systems are being developed to manage the rental and return of shared vehicles. For example, a technology has been disclosed that manages a rental vehicle by installing a transmitter in the vehicle and communicating with a user's mobile terminal (for example, see Patent Document 1).

特開2019-75090号公報Japanese Patent Application Publication No. 2019-75090

ここで、シェアする乗り物の位置や開錠を管理するため、情報コード(バーコードやQRコード(登録商標)、NFC等)を乗り物に付与して、乗り物等を管理することが考えられる。この場合、乗り物の返却時に、乗り物が所定の場所に返却されたかどうかや、その乗り物に不備がなかったかなどを管理したいというニーズと、その管理コストを軽減したいというニーズがある。そこで、乗り物の返却時に、乗り物を撮影した画像を、シェアリングサービスを提供する会社に送信することが考えられるが、適切な撮影が行われなければ、オペレータによる確認や連絡が発生し、却って管理コストが増大してしまうという課題がある。 Here, in order to manage the location and unlocking of the shared vehicle, it is conceivable to manage the vehicle by assigning an information code (bar code, QR code (registered trademark), NFC, etc.) to the vehicle. In this case, when the vehicle is returned, there is a need to manage whether the vehicle has been returned to a predetermined location, whether there are any defects in the vehicle, and a need to reduce the management cost. Therefore, when returning the vehicle, it is possible to send the image taken of the vehicle to the company providing the sharing service, but if the image is not taken properly, the operator will have to check and contact you, and the management will not be able to manage it. There is a problem that costs increase.

本開示は、シェアリングサービスにおける乗り物返却時の管理コストの増加を軽減させることが可能なプログラム、情報処理方法、及び情報処理装置を提供することを目的の一つとする。 One of the objects of the present disclosure is to provide a program, an information processing method, and an information processing device that can reduce the increase in management costs when returning a vehicle in a sharing service.

本開示の一実施形態に係るプログラムは、情報処理装置に含まれる1又は複数のプロセッサに、撮影中の画像データから所定マーカを認識すること、前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内像装置の位置を推定する自己位置推定処理とを実行すること、前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導することを実行させる。 A program according to an embodiment of the present disclosure causes one or more processors included in an information processing device to recognize a predetermined marker from image data that is being captured, and to create a three-dimensional space based on the image data that is being captured. and a self-position estimation process to estimate the position of the imaging device in the three-dimensional space, and the method includes: performing a surrounding environment mapping process to create an image, and a self-position estimation process to estimate the position of the imaging device in the three-dimensional space; A correspondence relationship is specified, and based on the correspondence relationship, the position or orientation of the imaging device is guided to a position or orientation where the object including the predetermined marker can be photographed.

開示の技術によれば、シェアリングサービスにおける乗り物返却時の管理コストの増加を軽減させることが可能となる。 According to the disclosed technology, it is possible to reduce the increase in management costs when returning a vehicle in a sharing service.

実施形態における情報処理システム1の各構成例を示す図である。1 is a diagram illustrating each configuration example of an information processing system 1 in an embodiment. FIG. 実施形態に係るユーザ端末10の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a user terminal 10 according to an embodiment. 実施形態に係るサーバ20の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a server 20 according to an embodiment. 実施形態に係る、ユーザ端末10により処理される処理データ134の一例を示す図である。2 is a diagram illustrating an example of processing data 134 processed by the user terminal 10 according to the embodiment. FIG. 実施形態に係る管理データ233の第1データの一例を示す図である。It is a figure showing an example of the 1st data of management data 233 concerning an embodiment. 実施形態に係る管理データ233の第2データの一例を示す図である。It is a figure showing an example of the 2nd data of management data 233 concerning an embodiment. 実施形態に係る情報処理システム1の処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of processing of the information processing system 1 according to the embodiment. 実施形態に係る画像データの処理に関するシーケンス図である。FIG. 3 is a sequence diagram regarding image data processing according to the embodiment. 実施形態に係る画面の遷移例を示す図である。FIG. 6 is a diagram illustrating an example of screen transition according to the embodiment.

以下、本開示の実施形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. Note that the same elements are given the same reference numerals and redundant explanations will be omitted.

[実施形態]
実施形態では、シェアリングサービスにおける乗り物を返却する際に、その乗り物を撮影して、サーバに送信することで、サーバ側で適切に返却がなされたかなどを管理するシステムについて説明する。実施形態では、乗り物には、位置情報や開錠などを管理するための所定マーカの一例として情報コードが付与されており、ユーザが、この情報コードを携帯端末等で読み取ることで、サーバ側では、その乗り物の鍵を開け、どの位置からユーザが利用を開始したか等を管理する。以下、乗り物は、自転車を例にして説明するが、車やバイクなどの車両でもよい。また、乗り物に付与される情報コードは、その乗り物を識別するためのIDなども含まれており、乗り物を特定するためだけなどの目的で付与されてもよい。
[Embodiment]
In the embodiment, a system will be described in which, when a vehicle is returned in a sharing service, a photograph of the vehicle is taken and transmitted to a server, so that the server side manages whether the vehicle has been returned appropriately. In the embodiment, an information code is given to the vehicle as an example of a predetermined marker for managing location information, unlocking, etc., and when the user reads this information code with a mobile terminal etc., the server side , the user unlocks the vehicle, and manages the location from which the user starts using the vehicle. The vehicle will be described below using a bicycle as an example, but it may also be a vehicle such as a car or a motorcycle. Further, the information code given to a vehicle includes an ID for identifying the vehicle, and may be given solely for the purpose of identifying the vehicle.

<システムの適用例>
図1は、実施形態における情報処理システム1の各構成例を示す図である。図1に示す例では、各ユーザが利用する情報処理装置10A、10B、各ユーザが利用可能な自転車30A、30B、シェアリングサービスを管理するサーバ20AがネットワークNを介して接続される。なお、自転車30A、30Bそれぞれには、情報コード40A、40Bが付与されている。
<System application example>
FIG. 1 is a diagram illustrating each configuration example of an information processing system 1 in an embodiment. In the example shown in FIG. 1, information processing devices 10A and 10B used by each user, bicycles 30A and 30B that can be used by each user, and a server 20A that manages a sharing service are connected via a network N. Note that information codes 40A and 40B are given to the bicycles 30A and 30B, respectively.

情報処理装置10A、10Bは、例えば、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ、PDA(Personal Digital Assistant)などであり、内蔵又は外付けの撮像装置を有する。なお、情報処理装置10A及び10Bを区別しないときは、情報処理装置10と表記する。情報処理装置10は、ユーザが利用する端末であるため、ユーザ端末10とも表記する。 The information processing devices 10A and 10B are, for example, a smartphone, a mobile phone (feature phone), a computer, a PDA (Personal Digital Assistant), and have a built-in or external imaging device. Note that when the information processing apparatuses 10A and 10B are not distinguished, they are referred to as information processing apparatus 10. The information processing device 10 is also referred to as a user terminal 10 because it is a terminal used by a user.

情報処理装置20Aは、例えばサーバであり、1又は複数の装置により構成されてもよい。また、情報処理装置20Aは、シェアリングサービスを管理する処理を実行する。以下、情報処理装置20Aは、サーバ20とも表記する。 The information processing device 20A is, for example, a server, and may be composed of one or more devices. The information processing device 20A also executes processing for managing the sharing service. Hereinafter, the information processing device 20A will also be referred to as the server 20.

自転車30A、30Bは、基本的には所定のステーションに位置しており、ユーザにより利用されて、同じ又は別のステーションに返却される。なお、自転車30A、30Bを区別しないときは、自転車30とも表記する。情報コード40A、40Bが、画像撮影中に認識可能な所定のマーカであればよい。以下では、情報コード40A、40Bを区別しないときは、情報コード40とも表記する。なお、自転車30の数は、任意の数が用意されればよい。 Bicycles 30A, 30B are basically located at predetermined stations, used by users, and returned to the same or different stations. Note that when the bicycles 30A and 30B are not distinguished, they are also referred to as bicycle 30. It is sufficient that the information codes 40A and 40B are predetermined markers that can be recognized during image capture. Below, when the information codes 40A and 40B are not distinguished, they will also be referred to as information code 40. Note that any number of bicycles 30 may be prepared.

図1に示す例では、ユーザ端末10は、これからユーザが利用する自転車30の情報コード40を読み取り、読み取った情報をサーバ20に送信する。例えば、サーバ20は、読み取った情報に含まれる自転車IDを用いて、その自転車IDに対応する自転車30の鍵部に対し、鍵を開錠するための開錠信号を送信する。鍵部は、開錠信号を受信すると、鍵を開錠する。これにより、ユーザは、その自転車30を利用することが可能になる。 In the example shown in FIG. 1, the user terminal 10 reads the information code 40 of the bicycle 30 that the user will use from now on, and transmits the read information to the server 20. For example, the server 20 uses the bicycle ID included in the read information to transmit an unlock signal for unlocking the key part of the bicycle 30 corresponding to the bicycle ID. The key unit unlocks the key upon receiving the unlock signal. This allows the user to use the bicycle 30.

ユーザは、自転車30の利用を終え、所定のステーションに自転車30を返却し、鍵をロックする。このとき、ユーザは、自転車30に付与された情報コード40を、ユーザ端末10を用いて読み取り、返却した自転車30の撮影がユーザ端末10によって促される。ユーザは、ユーザ端末10に誘導されるとおりに、ユーザ端末10を移動させ、自転車30を撮影する。この撮影によって撮像された画像データがサーバ20に送信される。これにより、シェアリングサービスを提供する企業は、誘導によって所望の画像データを取得することができ、不適切な画像データが取得されることによる管理コストの増加を防ぐことができる。 The user finishes using the bicycle 30, returns the bicycle 30 to a predetermined station, and locks the key. At this time, the user reads the information code 40 given to the bicycle 30 using the user terminal 10, and is prompted by the user terminal 10 to take a photograph of the returned bicycle 30. The user moves the user terminal 10 as guided by the user terminal 10 and photographs the bicycle 30. Image data captured by this photography is transmitted to the server 20. Thereby, a company providing a sharing service can acquire desired image data through guidance, and can prevent an increase in management costs due to acquisition of inappropriate image data.

なお、自転車30の撮影は返却時に毎回促される構成でなくてもよく、所定の条件を満たした場合に促される構成でもよい。所定の条件は、例えば正しく返却処理行われなかった場合(自転車30が返却された位置が所定のステーションと異なる等)や、返却された時間帯が特定の時間帯である場合や、返却したユーザが特定のユーザ空いである場合等である。 Note that the configuration may not be such that the user is prompted to take a picture of the bicycle 30 every time the bicycle 30 is returned, but may be configured to be prompted when a predetermined condition is met. The predetermined conditions include, for example, when the return process is not performed correctly (the location where the bicycle 30 is returned is different from the predetermined station, etc.), when the time period when the bicycle 30 is returned is within a specific time period, or when the user who returned the bicycle This is the case when a specific user is free.

<構成の一例>
図2は、実施形態に係るユーザ端末10の一例を示すブロック図である。ユーザ端末10は典型的には、1つ又は複数の処理装置(CPU)110、1つ又は複数のネットワーク又は他の通信インタフェース120、メモリ130、ユーザインタフェース150、撮像装置160、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス170を含む。
<Example of configuration>
FIG. 2 is a block diagram showing an example of the user terminal 10 according to the embodiment. User terminal 10 typically includes one or more processing units (CPUs) 110, one or more network or other communication interfaces 120, memory 130, user interface 150, imaging device 160, and components thereof. including one or more communication buses 170 for interconnecting the .

ユーザインタフェース150は、例えば、ディスプレイ装置151及びタッチパネル152を備えるユーザインタフェース150である。また、タッチパネル152は、キーボード及び/又はマウス(又は他の何らかのポインティングデバイス等の入力装置)でもよい。 The user interface 150 is, for example, a user interface 150 that includes a display device 151 and a touch panel 152. The touch panel 152 may also be a keyboard and/or a mouse (or some other input device such as a pointing device).

メモリ130は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。 Memory 130 is, for example, a high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state storage, and may also include one or more magnetic disk storage, optical disk storage, flash memory devices, or It may also be a nonvolatile memory such as another nonvolatile solid state storage device.

また、メモリ130の他の例として、CPU110から遠隔に設置される1つ又は複数の記憶装置でもよい。ある実施形態において、メモリ130は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。 Further, as another example of the memory 130, one or more storage devices installed remotely from the CPU 110 may be used. In some embodiments, memory 130 stores the following programs, modules and data structures, or a subset thereof.

オペレーティングシステム131は、例えば、様々な基本的なシステムサービスを処理するとともにハードウェアを用いてタスクを実行するためのプロシージャを含む。 Operating system 131 includes, for example, procedures for handling various basic system services and performing tasks using hardware.

ネットワーク通信モジュール132は、例えば、ユーザ端末10を他のコンピュータに、1つ又は複数のネットワーク通信インタフェース120及び、インターネット、他の広域ネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ又は複数の通信ネットワークを介して接続するために使用される。 The network communications module 132 may, for example, connect the user terminal 10 to another computer via one or more network communications interfaces 120 and one or more communications networks, such as the Internet, other wide area networks, local area networks, metropolitan area networks, etc. Used to connect over a network.

撮像データ133は、撮像装置160により撮影中の画像データを含む。画像データは、動画像データ、静止画像データいずれでもよい。 The imaging data 133 includes image data being captured by the imaging device 160. The image data may be either moving image data or still image data.

処理データ134は、撮影中の画像データを用いて、後述する画像処理モジュール136により処理されるデータを含む。例えば、処理データ134は、画像データの特徴点データや、特徴点データをもとに作成される3次元空間モデルや、作成された3次元空間モデル内における撮像装置160の位置が推定された自己位置情報などを含み、図4を用いて後述する。 Processed data 134 includes data processed by an image processing module 136, which will be described later, using image data being captured. For example, the processed data 134 may include feature point data of image data, a three-dimensional space model created based on the feature point data, or a self-image in which the position of the imaging device 160 within the created three-dimensional space model is estimated. It includes position information and the like, and will be described later using FIG.

認識モジュール135は、撮影中の画像データに含まれる情報コード40を認識し、情報コード40に含まれる情報を読み取る。例えば、情報コード40には、コードIDや、自転車を識別する自転車IDなどを含む。読み取られた情報は、ネットワーク通信モジュール132を用いて、サーバ20に送信される。 The recognition module 135 recognizes the information code 40 included in the image data being photographed, and reads the information included in the information code 40. For example, the information code 40 includes a code ID, a bicycle ID for identifying a bicycle, and the like. The read information is sent to the server 20 using the network communication module 132.

画像処理モジュール136は、撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理(環境地図生成処理)と、3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行する。例えば、画像処理モジュール136は、SLAM(Simultaneous Localization and Mapping)等の技術を用いて、画像データをもとに平面や物体を認識して空間を作成する周囲環境マッピング処理と、撮影している撮像装置160の位置が空間内でどこにいるのかを推定する自己位置推定処理とを同時に行う。 The image processing module 136 performs surrounding environment mapping processing (environmental map generation processing) that creates a three-dimensional space based on image data being captured, and self-position estimation processing that estimates the position of the imaging device in the three-dimensional space. Execute. For example, the image processing module 136 uses technology such as SLAM (Simultaneous Localization and Mapping) to perform surrounding environment mapping processing that creates a space by recognizing planes and objects based on image data, and the image processing that is being taken. Self-position estimation processing for estimating where the device 160 is located in space is simultaneously performed.

また、画像処理モジュール136は、Apple(登録商標)社が提供するARKit、Google社が提供するARCoreなどを用いて、VIO(Visual-Inertial Odometry)に基づき周囲環境マッピング処理と、自己位置推定処理とを行ってもよい。VIO技術では、ユーザ端末10の加速度センサやジャイロセンサからのセンシング情報も用いて、自己位置推定を行う。 The image processing module 136 also performs surrounding environment mapping processing and self-position estimation processing based on VIO (Visual-Inertial Odometry) using ARKit provided by Apple (registered trademark), ARCore provided by Google, etc. You may do so. In the VIO technology, sensing information from the acceleration sensor and gyro sensor of the user terminal 10 is also used to estimate the self-position.

画像処理モジュール136は、認識された情報コード40に基づいて、3次元空間内における情報コード40の位置と撮像装置160の位置との対応関係を特定する。例えば、画像処理モジュール136は、生成された3次元空間内において、認識モジュール135により認識された情報コード40の位置と、自己位置推定処理で推定された撮像装置160の位置とを対応付ける。これにより、3次元空間内において、情報コード40と撮像装置160との位置関係を特定することが可能になる。 Based on the recognized information code 40, the image processing module 136 identifies the correspondence between the position of the information code 40 and the position of the imaging device 160 in the three-dimensional space. For example, the image processing module 136 associates the position of the information code 40 recognized by the recognition module 135 with the position of the imaging device 160 estimated by the self-position estimation process in the generated three-dimensional space. This makes it possible to specify the positional relationship between the information code 40 and the imaging device 160 in the three-dimensional space.

誘導モジュール137は、特定された対応関係に基づき、撮像装置160の位置又は向き(角度)が、情報コード40を含む対象物(例えば自転車30)等を撮影可能な位置又は向きに誘導する。例えば、誘導モジュール137は、3次元空間内において、情報コード40と撮像装置160との距離が設定されており、設定された距離以上になるように誘導する。誘導する方法は、ディスプレイ151に誘導情報を表示してもよいし、音や振動で誘導してもよい。ここでは、誘導情報が表示されることを例にして説明するが、この例に限られるものではない。 Based on the identified correspondence, the guidance module 137 guides the imaging device 160 to a position or orientation (angle) where it can photograph an object (for example, the bicycle 30) that includes the information code 40. For example, the distance between the information code 40 and the imaging device 160 is set in the three-dimensional space, and the guidance module 137 guides the information code 40 and the imaging device 160 so that the distance is equal to or greater than the set distance. The guidance may be performed by displaying guidance information on the display 151, or by using sound or vibration. Here, an example in which guidance information is displayed will be described, but the present invention is not limited to this example.

また、誘導モジュール137は、撮像装置160の向きについてもジャイロセンサなどを用いて誘導してもよい。自転車30と撮像装置160との位置関係が条件を満たしても、向きが適切でないと自転車30を適切に撮像することができない。そこで、誘導モジュール137は、撮像装置160の位置、及び/又は、向きが撮影条件を満たすように、撮像装置160の位置、及び/又は、向きを誘導してもよい。 Further, the guidance module 137 may also guide the direction of the imaging device 160 using a gyro sensor or the like. Even if the positional relationship between the bicycle 30 and the imaging device 160 satisfies the conditions, the bicycle 30 cannot be properly imaged unless the orientation is appropriate. Therefore, the guiding module 137 may guide the position and/or orientation of the imaging device 160 so that the position and/or orientation of the imaging device 160 satisfies the imaging conditions.

これにより、対象物(例えば自転車30)全体が撮像装置30の画角内におさまるように誘導することが可能になり、誘導の結果、適切な画像データがサーバ20に送信されることで、管理コストの増加を軽減させることが可能になる。対象物は、自転車30以外にもステーションのポートなどを含んでもよい。また、ユーザは、情報コード40を読み取り、誘導にしたがって撮像装置160(を含むユーザ端末10)を移動させるだけでよく、例えば一連の流れの中で適切な画像を撮影することが可能になる。また、必ずしも対象物全体を撮像しなくてもよく、場合によっては、対象物の所定位置を撮像するように誘導がなされてもよい。 This makes it possible to guide the entire object (for example, bicycle 30) to fit within the field of view of the imaging device 30, and as a result of the guidance, appropriate image data is sent to the server 20, which allows management This makes it possible to reduce cost increases. In addition to the bicycle 30, the target object may also include a station port and the like. In addition, the user only needs to read the information code 40 and move the imaging device 160 (including the user terminal 10) according to the guidance, making it possible, for example, to take appropriate images in a series of steps. Furthermore, it is not necessary to image the entire object, and in some cases, guidance may be provided to image a predetermined position of the object.

また、表示制御モジュール138は、撮影中の画像データに誘導情報を重畳して画面に表示制御する。例えば、表示制御モジュール138は、3次元空間内における情報コード40の位置と撮像装置160の位置との対応関係に基づいて、テキストなどの誘導情報を、ディスプレイ151の画面に表示される画像データに重畳する。重畳される誘導情報は、テキストや画像(例えば矢印など)などを含む。 Further, the display control module 138 superimposes guidance information on the image data being photographed and controls the display on the screen. For example, the display control module 138 adds guidance information such as text to image data displayed on the screen of the display 151 based on the correspondence between the position of the information code 40 and the position of the imaging device 160 in the three-dimensional space. Superimpose. The guidance information to be superimposed includes text, images (for example, arrows, etc.), and the like.

これにより、ユーザ端末10は、自転車30等を適切に撮影するための誘導情報を表示制御することで、例えば拡張現実(AR:Augmented Reality)などの技術(AR技術)を用いて、撮像装置160の位置を視覚的に誘導することが可能になる。その結果、適切な画像の撮影を迅速に行わせ、ユーザ端末10の処理効率を向上させることが可能になる。 As a result, the user terminal 10 controls the display of guidance information for appropriately photographing the bicycle 30, etc., so that the image capturing device 160 can use technology such as augmented reality (AR). It becomes possible to visually guide the position of the As a result, it becomes possible to quickly capture an appropriate image and improve the processing efficiency of the user terminal 10.

また、表示制御モジュール138は、3次元空間内における情報コード40の位置と撮像装置160の位置との対応関係に応じて変動する誘導情報を画像データに重畳してもよい。例えば、表示制御モジュール138は、上述した対応関係に応じて、誘導情報のサイズや向きなどを変動させる。具体例としては、誘導情報として所定の画像を用いることができ、表示制御モジュール138は、AR技術を用いて、この画像のサイズや向きを所定のサイズや向きに仕向けることで、撮像装置160の位置や向きが自転車30を撮影可能な位置や向きに誘導する。例えば、重畳対象の画像は、情報コード40の検出位置に重畳されてもよい。 Furthermore, the display control module 138 may superimpose guidance information on the image data that varies depending on the correspondence between the position of the information code 40 and the position of the imaging device 160 in the three-dimensional space. For example, the display control module 138 changes the size, orientation, etc. of the guidance information according to the above-mentioned correspondence. As a specific example, a predetermined image can be used as guidance information, and the display control module 138 uses AR technology to direct the size and orientation of this image to a predetermined size and orientation, thereby controlling the image capturing device 160. The position and orientation guide the bicycle 30 to a position and orientation where photography can be performed. For example, the image to be superimposed may be superimposed on the detection position of the information code 40.

これにより、ユーザ端末10は、自転車30等を適切に撮影するための誘導情報を、AR技術を用いて変動させながら表示制御することで、撮像装置160の位置を、より視覚的に誘導することが可能になる。その結果、適切な画像の撮影をより迅速に行わせ、ユーザ端末10の処理効率をさらに向上させることが可能になる。 Thereby, the user terminal 10 can guide the position of the imaging device 160 more visually by controlling the display while changing the guidance information for appropriately photographing the bicycle 30 etc. using AR technology. becomes possible. As a result, it becomes possible to take appropriate images more quickly and further improve the processing efficiency of the user terminal 10.

また、誘導モジュール137は、撮像装置160の位置又は向きが、情報コード40を含む自転車30等を撮影可能な位置又は向きに関する所定条件を満たす場合、撮像装置160による撮影を許可するように制御してもよい。例えば、誘導モジュール137は、誘導の結果、3次元空間内で、情報コード40と撮像装置160との位置に関する対応関係が、自転車30を撮影する条件を満たすか否かを判定する。判定結果が肯定の場合(条件を満たす場合)、誘導モジュール137は、撮像装置160による撮影を許可する。 Further, the guidance module 137 performs control to permit the imaging device 160 to take a picture if the position or orientation of the imaging device 160 satisfies a predetermined condition regarding the position or orientation in which the bicycle 30 or the like including the information code 40 can be photographed. It's okay. For example, as a result of the guidance, the guidance module 137 determines whether or not the positional relationship between the information code 40 and the imaging device 160 in the three-dimensional space satisfies the conditions for photographing the bicycle 30. If the determination result is affirmative (if the conditions are met), the guidance module 137 allows the imaging device 160 to take an image.

また、表示制御モジュール138は、撮影が許可されると、撮影を可能にするUI部品(例えば撮影ボタン)を画面に表示制御してもよい。この撮影ボタンをユーザが押下することにより、撮像装置160は、画面に写る景色を撮像し、画像データを取得する。また、表示制御モジュール138は、誘導中の画面から撮影ボタンを表示させておくことも可能であり、撮影条件が満たされない場合は、撮影ボタンを押下できない状態(無効化)にし、撮影条件が満たれた場合、撮影ボタンを押下できる状態(有効化)に変更してもよい。さらに、表示制御モジュール138は、撮影条件が満たされた場合に、撮像装置160を制御して自動で撮影してもよい。 Furthermore, when photography is permitted, the display control module 138 may display on the screen a UI component (for example, a photography button) that enables photography. When the user presses this shooting button, the imaging device 160 images the scenery appearing on the screen and acquires image data. The display control module 138 can also display the shooting button from the screen during guidance, and if the shooting conditions are not met, the shooting button can be disabled (disabled) and the shooting conditions are met. If this happens, the shooting button may be changed to a state where it can be pressed (enabled). Furthermore, the display control module 138 may control the image capturing device 160 to automatically capture images when the capturing conditions are satisfied.

これにより、ユーザ端末10は、適切な撮影タイミングをユーザに知らせることができる。その結果、ユーザは、撮影タイミングを失うことなく、また、ユーザ端末10は、自転車30等の適切な画像を取得することが可能になる。 Thereby, the user terminal 10 can notify the user of appropriate photographing timing. As a result, the user can capture an appropriate image of the bicycle 30 and the like without losing the timing for photographing.

また、ネットワーク通信モジュール132は、撮像装置160により撮像された自転車30等を含む画像データを、他の情報処理装置(例えばサーバ20)に送信してもよい。例えば、ネットワーク通信モジュール132は、誘導モジュール137の制御に基づいて、撮像装置160により撮像された画像データをサーバ20に送信する。 Further, the network communication module 132 may transmit image data including the bicycle 30 and the like captured by the imaging device 160 to another information processing device (for example, the server 20). For example, the network communication module 132 transmits image data captured by the imaging device 160 to the server 20 under the control of the guidance module 137.

これにより、ユーザ端末10は、自転車30等を含む画像データをサーバ20に送信することが可能になり、サーバ20は、返却時の自転車30の状況を把握することが可能になる。誘導により適切な画像が送信される可能性が高まることで、サーバ20での返却時の管理が容易になり、管理コストの増加を軽減させることができる。なお、自転車30の状況とは、例えば故障や異常がないかなどであり、これらの判定は画像認識を用いて行うことが可能である。 This allows the user terminal 10 to transmit image data including the bicycle 30 and the like to the server 20, and the server 20 to understand the status of the bicycle 30 at the time of return. By increasing the possibility that an appropriate image will be transmitted through guidance, the management at the time of return at the server 20 becomes easier, and an increase in management costs can be reduced. Note that the condition of the bicycle 30 includes, for example, whether there is a breakdown or abnormality, and these determinations can be made using image recognition.

また、ネットワーク通信モジュール132は、情報コード40が認識された時にユーザ端末10の第1位置情報を他の情報処理装置(例えばサーバ20)に送信してもよい。及び/又は、ネットワーク通信モジュール132は、自転車30等を含む画像データが撮像された時にユーザ端末10の第2位置情報を他の情報処理装置(例えばサーバ20)に送信してもよい。例えば、ユーザ端末10の位置情報は、端末が備えるGPS(Global Positioning System)機能等により取得可能な緯度、経度情報などである。 Further, the network communication module 132 may transmit the first location information of the user terminal 10 to another information processing device (for example, the server 20) when the information code 40 is recognized. And/or the network communication module 132 may transmit the second position information of the user terminal 10 to another information processing device (for example, the server 20) when image data including the bicycle 30 etc. is captured. For example, the location information of the user terminal 10 is latitude and longitude information that can be obtained by a GPS (Global Positioning System) function included in the terminal.

これにより、他の情報処理装置(例えばサーバ20)は、自転車30の情報コード40の読取時の位置情報を取得し、所定のステーションに返却されたか否かを判定することが可能になる。また、自転車30が通信機能や位置計測機能等を有する場合は、鍵を施錠したときに、自転車30が位置情報を送信してもよく、この場合は、自転車30から送信された位置情報と、ユーザ端末10から送信された位置情報とを比較し、それぞれが同じステーションを示すか否かを判定してもよい。 This makes it possible for another information processing device (for example, the server 20) to acquire the position information of the bicycle 30 at the time of reading the information code 40, and to determine whether the bicycle 30 has been returned to a predetermined station. Further, if the bicycle 30 has a communication function, a position measurement function, etc., the bicycle 30 may transmit position information when the key is locked. In this case, the position information transmitted from the bicycle 30 and the The location information transmitted from the user terminal 10 may be compared to determine whether they each indicate the same station.

さらに、ユーザ端末10は、画像データの送信とともに第2位置情報を送信することで、画像データの送信時の第2位置情報が、所定のステーションを示すか否かを判定することが可能になる。その結果、情報コード40の読取時、画像データの送信時において、サーバ20側で、適切な場所で返却がなされた否かを把握することが可能になる。 Furthermore, by transmitting the second location information together with the image data transmission, the user terminal 10 can determine whether or not the second location information at the time of image data transmission indicates a predetermined station. . As a result, when reading the information code 40 and transmitting image data, it becomes possible on the server 20 side to determine whether or not the item was returned at an appropriate location.

また、誘導モジュール137は、他の情報処理装置(例えばサーバ20)により、第1位置情報が所定位置にないと判定された場合、警告情報を取得してもよい。この場合、表示制御モジュール138は、警告情報を画面に表示制御してもよい。例えば、サーバ20側で、第1位置情報に基づき、所定のステーションに返却されずに乗り捨てされたと判定した場合、所定のステーションに返却することをユーザに求めるための警告情報をユーザ端末10に送信する。 Further, the guidance module 137 may acquire warning information when another information processing device (for example, the server 20) determines that the first position information is not at a predetermined position. In this case, the display control module 138 may control display of the warning information on the screen. For example, if the server 20 side determines that the vehicle has been abandoned without being returned to a predetermined station based on the first location information, warning information is sent to the user terminal 10 to request the user to return the vehicle to a predetermined station. do.

これにより、ユーザ端末10は警告情報を受信することで、自転車30を適切な場所に返却するようユーザに促すことができる。また、警告情報に、第1位置情報から近い所定のステーションの位置を知らせることも可能であり、所定のステーションへの返却率を向上させることも可能である。 Thereby, the user terminal 10 can prompt the user to return the bicycle 30 to an appropriate location by receiving the warning information. Further, it is possible to inform the warning information of the position of a predetermined station near the first position information, and it is also possible to improve the return rate to the predetermined station.

また、誘導モジュール137は、他の情報処理装置(例えばサーバ20)により、第2位置情報が所定位置(予め設定された所定のステーションの位置)にあると判定された場合、警告情報を非表示にするリクエスト情報を取得してもよい。この場合、表示制御モジュール138は、リクエスト情報に応じて、警告情報を非表示にしてもよい。例えば、第1位置情報は、乗り捨ての位置を示したとしても、第2位置情報が、適切なステーションの位置を示せば、警告情報が非表示になるように制御される。 Further, the guidance module 137 hides the warning information when it is determined by another information processing device (for example, the server 20) that the second position information is at a predetermined position (the position of a predetermined station set in advance). You may also obtain request information. In this case, the display control module 138 may hide the warning information according to the request information. For example, even if the first location information indicates a drop-off location, if the second location information indicates the location of an appropriate station, the warning information is controlled to be hidden.

これにより、サーバ20は所定のタイミングで位置情報を取得することで、自転車30の位置を把握することができ、自転車30の位置等を適切に管理することができる。 Thereby, the server 20 can grasp the position of the bicycle 30 by acquiring position information at a predetermined timing, and can appropriately manage the position of the bicycle 30 and the like.

また、警告情報は、所定時間内に自転車30を所定位置に移動させることを促す時間情報を含んでもよい。例えば、画面に所定時間(例えば10分)からカウントダウン表示させる。 Further, the warning information may include time information that urges the bicycle 30 to be moved to a predetermined position within a predetermined time. For example, a countdown from a predetermined time (for example, 10 minutes) is displayed on the screen.

これにより、ユーザに適切な位置への迅速な返却を促すことができる。また、所定時間内に適切な位置に返却されなかった場合は、そのユーザにペナルティを課すことも可能になる。 Thereby, it is possible to prompt the user to quickly return the vehicle to an appropriate location. Furthermore, if the device is not returned to the appropriate location within a predetermined time, it becomes possible to impose a penalty on the user.

誘導モジュール137は、画像データに基づき自転車30を認識し、この自転車30が撮影条件を満たすか否かをさらに判定してもよい。例えば、誘導モジュール137は、画像データから物体認識を行い、物体が自転車30であることを認識する。この場合、誘導モジュール137は、自転車30全体が画角内に入っているかの判定(撮影条件の判定)を行い、撮影条件を満たせば、撮影を許可してもよい。なお、物体認識は、画像処理モジュール136が行ってもよい。 The guidance module 137 may recognize the bicycle 30 based on the image data and further determine whether the bicycle 30 satisfies the photographing conditions. For example, the guidance module 137 performs object recognition from the image data and recognizes that the object is the bicycle 30. In this case, the guidance module 137 may determine whether the entire bicycle 30 is within the angle of view (determination of the photographing conditions), and may permit photographing if the photographing conditions are met. Note that object recognition may be performed by the image processing module 136.

これにより、3次元空間内の位置関係だけではなく、撮影中の画像データから物体認識させることで、より適切な画像の取得可能性を高めることが可能になる。 This makes it possible to increase the possibility of obtaining a more appropriate image by recognizing objects not only based on positional relationships in three-dimensional space but also from image data being captured.

なお、1つ又は複数の処理装置(CPU)110は、メモリ130から、必要に応じて各モジュールを読み出して実行する。例えば、1つ又は複数の処理装置(CPU)110は、メモリ130に格納されているネットワーク通信モジュール132を実行することで、通信部を構成してもよい。また、1つ又は複数の処理装置(CPU)110は、メモリ130に格納されている画像処理モジュール136、誘導モジュール137、表示制御モジュール138をそれぞれ実行することで、画像処理部、誘導部、表示制御部を構成してもよい。 Note that one or more processing units (CPUs) 110 read and execute each module from the memory 130 as necessary. For example, one or more processing units (CPUs) 110 may constitute a communication unit by executing a network communication module 132 stored in memory 130. In addition, one or more processing units (CPUs) 110 execute an image processing module 136, a guidance module 137, and a display control module 138 stored in the memory 130, respectively, thereby controlling the image processing section, the guidance section, and the display control module 138. A control unit may also be configured.

他の実施形態において、画像処理モジュール136、誘導モジュール137、表示制御モジュール138は、ユーザ端末10のメモリ130に格納されるスタンドアロンアプリケーションであってもよい。スタンドアロンアプリケーションとしては、限定はされないが、画像処理アプリケーション、誘導アプリケーション、表示制御アプリケーションが挙げられる。さらに他の実施形態において、誘導モジュール137、表示制御モジュール138は別のアプリケーションへのアドオン又はプラグインであってもよい。 In other embodiments, image processing module 136, guidance module 137, and display control module 138 may be standalone applications stored in memory 130 of user terminal 10. Standalone applications include, but are not limited to, image processing applications, guidance applications, and display control applications. In yet other embodiments, the guidance module 137, display control module 138 may be an add-on or plug-in to another application.

上記に示した要素の各々は、先述の記憶装置の1つ又は複数に格納され得る。上記に示したモジュールの各々は、上述される機能を実行するための命令のセットに対応する。上記に示したモジュール又はプログラム(すなわち、命令のセット)は別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はないとともに、従ってこれらのモジュールの様々なサブセットは様々な実施形態で組み合わされるか、或いは再構成されてもよい。ある実施形態において、メモリ130は上記に示されるモジュール及びデータ構造のサブセットを格納し得る。さらには、メモリ130は上述されない追加的なモジュール及びデータ構造を格納し得る。 Each of the elements shown above may be stored in one or more of the aforementioned storage devices. Each of the modules shown above corresponds to a set of instructions for performing the functions described above. The modules or programs (i.e., sets of instructions) illustrated above need not be implemented as separate software programs, procedures or modules, and therefore various subsets of these modules may be combined in various embodiments. Alternatively, it may be reconfigured. In some embodiments, memory 130 may store a subset of the modules and data structures shown above. Furthermore, memory 130 may store additional modules and data structures not described above.

図3は、実施形態に係るサーバ20の一例を示すブロック図である。サーバ20は典型的には、1つ又は複数の処理装置(CPU)210、1つ又は複数のネットワーク又は他の通信インタフェース220、メモリ230、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス270を含む。 FIG. 3 is a block diagram showing an example of the server 20 according to the embodiment. Server 20 typically includes one or more processing units (CPUs) 210, one or more network or other communication interfaces 220, memory 230, and one or more processors for interconnecting these components. A plurality of communication buses 270 are included.

サーバ20は、場合によりユーザインタフェース250を含んでもよく、これとしては、ディスプレイ装置(図示せず)、及びキーボード及び/又はマウス(又は他の何らかのポインティングデバイス等の入力装置。図示せず)を挙げることができる。 Server 20 may optionally include a user interface 250, including a display device (not shown) and input devices such as a keyboard and/or mouse (or some other pointing device, not shown). be able to.

メモリ130は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。 Memory 130 is, for example, a high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state storage, and may also include one or more magnetic disk storage, optical disk storage, flash memory devices, or It may also be a nonvolatile memory such as another nonvolatile solid state storage device.

また、メモリ230の他の例は、CPU210から遠隔に設置される1つ又は複数の記憶装置を挙げることができる。ある実施形態において、メモリ230は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。 Other examples of the memory 230 include one or more storage devices installed remotely from the CPU 210. In some embodiments, memory 230 stores the following programs, modules and data structures, or a subset thereof.

オペレーティングシステム231は、例えば、様々な基本的なシステムサービスを処理するとともにハードウェアを用いてタスクを実行するためのプロシージャを含む。 Operating system 231 includes, for example, procedures for handling various basic system services and performing tasks using hardware.

ネットワーク通信モジュール232は、例えば、サーバ20を他のコンピュータに、1つ又は複数の通信ネットワークインタフェース220及びインターネット、他の広域ネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ又は複数の通信ネットワークを介して接続するために使用される。 Network communications module 232 may, for example, connect server 20 to other computers through one or more communications network interfaces 220 and one or more communications networks, such as the Internet, other wide area networks, local area networks, metropolitan area networks, etc. Used to connect via.

管理データ233は、自転車30の利用状況に関する第1データと、ステーションの位置情報とを含む第2データとを含む。第1データは、例えば、自転車30を識別するためのIDや、情報コード40を識別するためのIDや、利用時間、利用開始位置、返却位置などを含んでもよい。第2データは、例えば、ステーションを識別するためのIDや、位置情報や、名称等を含んでもよい。管理データ233は、図4及び5を用いて後述する。 The management data 233 includes first data regarding the usage status of the bicycle 30 and second data including station position information. The first data may include, for example, an ID for identifying the bicycle 30, an ID for identifying the information code 40, usage time, usage start position, return location, etc. The second data may include, for example, an ID for identifying the station, location information, and a name. The management data 233 will be described later using FIGS. 4 and 5.

管理モジュール234は、自転車30の利用を管理する処理を実行する。例えば、管理モジュール234は、各自転車30の鍵の開錠、施錠を管理し、各自転車30の位置情報を管理し、各自転車30の利用時間を管理し、各ユーザの自転車30の利用状況を管理したりする。 The management module 234 executes processing for managing the use of the bicycle 30. For example, the management module 234 manages unlocking and locking of each bicycle 30, manages the position information of each bicycle 30, manages the usage time of each bicycle 30, and monitors the usage status of each user's bicycle 30. manage.

管理モジュール234は、警告モジュール235を含む。警告モジュール235は、ユーザ端末10から送信された位置情報が所定のステーションの位置から所定範囲内にあるか否かを判定する。位置情報が所定範囲内になければ、警告情報をユーザ端末10に送信するように制御する。このとき、警告モジュール235は、警告情報に、カウンダウン情報を含めたり、近傍のステーションの情報を含めたり、ペナルティの情報を含めたりしてもよい。 Management module 234 includes an alert module 235. The warning module 235 determines whether the location information transmitted from the user terminal 10 is within a predetermined range from the location of a predetermined station. If the position information is not within a predetermined range, control is performed to send warning information to the user terminal 10. At this time, the warning module 235 may include countdown information, nearby station information, or penalty information in the warning information.

警告モジュール235は、ユーザ端末10から再度送信された位置情報が所定のステーションの位置から所定範囲内にあるか否かを判定する。先の位置情報が所定範囲内になくても、後の位置情報が所定範囲内にあれば、警告情報を非表示にするよう制御する。例えば、警告モジュール235は、警告情報の送信を停止したりする。 The warning module 235 determines whether the location information transmitted again from the user terminal 10 is within a predetermined range from the location of the predetermined station. Even if the previous position information is not within the predetermined range, if the subsequent position information is within the predetermined range, the warning information is controlled to be hidden. For example, the warning module 235 may stop sending warning information.

なお、警告モジュール235は、ユーザ端末10から画像データを取得して、当該画像データに基づいて警告情報を送信するか否かを制御しても良い。例えば、警告モジュール235は、画像データを解析して、当該画像データが自転車とステーションとの画像を含んでいるか否かに基づいて正しく返却されたかを判断し、判断結果に基づいて警告情報を送信するか否かを制御することができる。また、警告モジュール235は、管理者が目視で画像データを確認できるように画像データを出力しても良い。 Note that the warning module 235 may acquire image data from the user terminal 10 and control whether or not to transmit warning information based on the image data. For example, the warning module 235 analyzes the image data, determines whether the image data includes an image of the bicycle and the station, and determines whether the bicycle has been returned correctly, and transmits warning information based on the determination result. You can control whether or not to do so. Further, the warning module 235 may output image data so that the administrator can visually confirm the image data.

上記に示した要素の各々は先述される記憶装置の1つ又は複数に格納され得る。上記に示したモジュールの各々は、上述される機能を実行するための命令のセットに対応する。上記に示したモジュール又はプログラム(すなわち、命令のセット)は別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はないとともに、従ってこれらのモジュールの様々なサブセットが様々な実施形態で組み合わされるか、或いは再構成され得る。ある実施形態において、メモリ230は上記に示されるモジュール及びデータ構造のサブセットを格納し得る。さらには、メモリ230は上述されない追加的なモジュール及びデータ構造を格納し得る。1つ又は複数の処理装置(CPU)210は、メモリ230に格納されている管理モジュール234、警告モジュール235をそれぞれ実行することで、管理部、警告部を構成してもよい。 Each of the elements shown above may be stored in one or more of the storage devices mentioned above. Each of the modules shown above corresponds to a set of instructions for performing the functions described above. The modules or programs (i.e., sets of instructions) illustrated above need not be implemented as separate software programs, procedures or modules, and therefore various subsets of these modules may be combined in various embodiments. Or it can be reconfigured. In some embodiments, memory 230 may store a subset of the modules and data structures shown above. Furthermore, memory 230 may store additional modules and data structures not described above. One or more processing units (CPUs) 210 may constitute a management section and a warning section by respectively executing a management module 234 and a warning module 235 stored in the memory 230.

図3は「サーバ」を示すが、図3は、本明細書に記載される実施形態の構造的な概略としてよりも、サーバのセットに存在し得る様々な特徴についての説明が意図されている。実際には、当業者により認識されるとおり、別個に示される項目が組み合わされ得るであろうとともに、ある項目が別個にされ得るであろう。例えば、図3において別個に示される項目は単一サーバ上に実装され得るであろうとともに、単一の項目が1台又は複数のサーバにより実装され得るであろう。 Although FIG. 3 depicts a "server," FIG. 3 is intended less as a structural overview of the embodiments described herein and more as an illustration of the various features that may be present in a set of servers. . In fact, items shown separately could be combined, as well as certain items could be made separate, as will be recognized by those skilled in the art. For example, items shown separately in FIG. 3 could be implemented on a single server, and a single item could be implemented by one or more servers.

<データ構造の一例>
図4は、実施形態に係る、ユーザ端末10により処理される処理データ134の一例を示す図である。図4に示す例では、処理データ134は、例えば、AR技術を用いて抽出された各特徴点や、各特徴点から生成された3次元空間モデルや、3次元空間内における撮像装置160の位置が推定された自己位置や、3次元空間内における情報コード40の位置の各情報を含む。なお、処理データ134は、さらにユーザ端末10が取得したセンサ情報(カメラの傾き等)を含んでも良い。
<Example of data structure>
FIG. 4 is a diagram illustrating an example of processing data 134 processed by the user terminal 10 according to the embodiment. In the example shown in FIG. 4, the processed data 134 includes, for example, each feature point extracted using AR technology, a three-dimensional space model generated from each feature point, and the position of the imaging device 160 in the three-dimensional space. includes information on the estimated self-position and the position of the information code 40 in three-dimensional space. Note that the processing data 134 may further include sensor information (camera tilt, etc.) acquired by the user terminal 10.

画像処理モジュール136は、生成された3次元空間内において、認識モジュール135により認識された情報コード40の位置と、自己位置推定処理で推定された撮像装置160の位置とを対応付ける。これにより、誘導モジュール137は、この対応関係が所定の撮影条件を満たすか否かを判定することが可能になる。撮影条件は、例えば、情報コード40の位置と、自己位置推定処理で推定された撮像装置160の位置とが、所定距離離れていること、撮像装置160の画角内に、所定コード40を含むことなどである。 The image processing module 136 associates the position of the information code 40 recognized by the recognition module 135 with the position of the imaging device 160 estimated by the self-position estimation process in the generated three-dimensional space. This allows the guidance module 137 to determine whether this correspondence relationship satisfies predetermined imaging conditions. The photographing conditions include, for example, that the position of the information code 40 and the position of the imaging device 160 estimated by self-position estimation processing are separated by a predetermined distance, and that the angle of view of the imaging device 160 includes the predetermined code 40. Things like that.

図5は、実施形態に係る管理データ233の第1データの一例を示す図である。図5に示す例では、第1データは、コードID、ステータス、位置情報1、位置情報2、利用時間等を含む。 FIG. 5 is a diagram showing an example of first data of the management data 233 according to the embodiment. In the example shown in FIG. 5, the first data includes code ID, status, location information 1, location information 2, usage time, and the like.

コードIDは、自転車30等の対象物を識別可能なIDであり、コードIDは、情報コード40を識別するためのIDである。ステータスは、開錠(Unlock)や施錠(Lock)を示す。位置情報1は、利用開始位置を示し、位置情報2は、返却位置を示す。利用時間は、シェアリングサービスの利用時間を示す。なお、第1データは、一例であって、各自転車30の現在のステータスと、利用履歴情報とが分けて管理されてもよい。例えば、現在のステータスには、現在位置とステータスとを含み、利用履歴情報には、利用開始位置、返却位置、利用時間を含む。 The code ID is an ID that can identify an object such as the bicycle 30, and the code ID is an ID for identifying the information code 40. The status indicates whether the lock is unlocked or locked. Location information 1 indicates the usage start location, and location information 2 indicates the return location. The usage time indicates the usage time of the sharing service. Note that the first data is an example, and the current status of each bicycle 30 and usage history information may be managed separately. For example, the current status includes the current location and status, and the usage history information includes the usage start location, return location, and usage time.

なお、第1データは図5に示す構成に限定されない。例えば、第1データは利用テーブルとステータステーブルとに分割されて管理される構成でもよい。この場合、利用テーブルは、例えば利用しているユーザのIDと、コードIDと、位置情報1と、位置情報2と、利用時間とを含み、ステータステーブルは、コードIDと、ステータスと、自転車30の位置情報とを含んでも良い。 Note that the first data is not limited to the configuration shown in FIG. 5. For example, the first data may be managed by being divided into a usage table and a status table. In this case, the usage table includes, for example, the ID of the user using the bicycle, the code ID, location information 1, location information 2, and usage time, and the status table includes the code ID, the status, and the usage time of the bicycle 30. The location information may also be included.

図6は、実施形態に係る管理データ233の第2データの一例を示す図である。図6に示す例では、第2データは、ステーションID、ステーションの位置情報を含む。ステーションの位置情報は、自転車30が適切な位置に返却されたか否かに用いられてもよい。 FIG. 6 is a diagram illustrating an example of second data of the management data 233 according to the embodiment. In the example shown in FIG. 6, the second data includes a station ID and station position information. The station location information may be used to determine whether the bicycle 30 has been returned to an appropriate location.

上述したデータ構造は、あくまでも一例であって、この例に限られない。例えば管理データ233は、ユーザごとの自転車30の利用履歴情報を保持してもよい。 The data structure described above is just an example, and is not limited to this example. For example, the management data 233 may hold usage history information of the bicycle 30 for each user.

<動作説明>
次に、実施形態に係る情報処理システム1の動作について説明する。図7は、実施形態に係る情報処理システム1の処理の一例を示すフローチャートである。
<Operation explanation>
Next, the operation of the information processing system 1 according to the embodiment will be explained. FIG. 7 is a flowchart illustrating an example of processing of the information processing system 1 according to the embodiment.

(ステップS102)
ユーザ端末10の認識モジュール135は、撮影中の画面から所定マーカ(例えば情報コード40)を写すように誘導する。例えば、認識モジュール135は、画面内に情報コードの枠を表示したりする。
(Step S102)
The recognition module 135 of the user terminal 10 guides the user to capture a predetermined marker (for example, the information code 40) from the screen being captured. For example, the recognition module 135 displays an information code frame on the screen.

(ステップS104)
認識モジュール135は、撮影中の画像データに含まれる情報コード40を検出し、認識する。
(Step S104)
The recognition module 135 detects and recognizes the information code 40 included in the image data being photographed.

(ステップS106)
画像処理モジュール136は、撮影中の画像データに基づいて、周囲環境マッピング処理と、自己位置推定処理とを実行する。画像処理モジュール136は、認識された情報コード40の位置と、撮像装置160の位置とを対応付ける。誘導モジュール137は、この対応関係に基づいて、撮像装置160の位置又は向きが、情報コード40を含む対象物を撮影可能な位置又は向きに誘導する。このとき、表示制御モジュール138は、ARコンテンツを表示して誘導してもよい。
(Step S106)
The image processing module 136 executes surrounding environment mapping processing and self-position estimation processing based on the image data being captured. The image processing module 136 associates the position of the recognized information code 40 with the position of the imaging device 160. Based on this correspondence, the guidance module 137 guides the imaging device 160 to a position or orientation where the object including the information code 40 can be photographed. At this time, the display control module 138 may display the AR content to guide the user.

(ステップS108)
誘導モジュール137は、対応関係が所定の撮影条件を満たせば、撮影ボタンを有効化、又は画面上に表示制御する。
(Step S108)
If the correspondence relationship satisfies a predetermined shooting condition, the guidance module 137 activates the shooting button or controls the display on the screen.

(ステップS110)
撮像装置160は、ユーザが撮影ボタンを押下したタイミングで撮像し、対象物を含む画像データを取得する。なお、撮像装置160は、所定の撮影条件が満たされたときに、自動で撮像を行ってもよい。
(Step S110)
The imaging device 160 captures an image at the timing when the user presses the shooting button, and obtains image data including the object. Note that the imaging device 160 may automatically perform imaging when predetermined imaging conditions are met.

(ステップS112)
ネットワーク通信モジュール132は、誘導の結果、撮像装置160により撮像された画像データをサーバ20に送信する。これにより、適切な画像データを取得可能になり、サーバ20に適切な画像データを送信することができる。
(Step S112)
As a result of the guidance, the network communication module 132 transmits image data captured by the imaging device 160 to the server 20. This makes it possible to acquire appropriate image data and transmit the appropriate image data to the server 20.

図8は、実施形態に係る画像データの処理に関するシーケンス図である。図8に示す例では、誘導モジュール137の誘導により画像データが撮像された後に行われる処理を含む。 FIG. 8 is a sequence diagram regarding image data processing according to the embodiment. The example shown in FIG. 8 includes processing performed after image data is captured by guidance of the guidance module 137.

(ステップS202)
ユーザ端末10の誘導モジュール137は、撮像された画像データを取得する。
(Step S202)
The guidance module 137 of the user terminal 10 acquires the captured image data.

(ステップS204)
誘導モジュール137は、ユーザ端末10のGPS機能等を用いて現在の位置情報を取得する。
(ステップS206)
(Step S204)
The guidance module 137 uses the GPS function or the like of the user terminal 10 to obtain current position information.
(Step S206)

ネットワーク通信モジュール132は、画像データと位置情報とをサーバ20に送信する。 Network communication module 132 transmits image data and location information to server 20.

(ステップS208)
サーバ20の管理モジュール234は、取得された画像データと位置情報とに基づいて、自転車30の返却判定を行う。管理モジュール234は、例えば、画像データに基づいて、自転車30が適切な位置に返却されたかを判定したり、自転車30の故障等を判定したりする。また、管理モジュール234(警告モジュール235)は、取得された位置情報が、所定のステーションの位置から所定範囲内にあるか否かを判定する。ここで、判定結果が肯定(自転車30が所定位置にあると判定)であれば、ステップS210に進み、判定結果が否定(自転車30が所定位置にないと判定)であれば、ステップS220に進む。
(Step S208)
The management module 234 of the server 20 determines whether the bicycle 30 should be returned based on the acquired image data and position information. For example, the management module 234 determines whether the bicycle 30 has been returned to an appropriate position or determines whether the bicycle 30 is malfunctioning or the like based on the image data. Furthermore, the management module 234 (warning module 235) determines whether the acquired position information is within a predetermined range from the position of a predetermined station. Here, if the determination result is affirmative (determined that the bicycle 30 is in the predetermined position), the process proceeds to step S210, and if the determination result is negative (determined that the bicycle 30 is not in the predetermined position), the process proceeds to step S220. .

(ステップS210)
警告モジュール235は、警告情報をユーザ端末10に送信する。警告情報は、例えば、カウントダウン情報や、ペナルティ情報や、近くの所定のステーションに返却することを促す情報を含んでもよい。
(Step S210)
Warning module 235 sends warning information to user terminal 10 . The warning information may include, for example, countdown information, penalty information, or information prompting the user to return the vehicle to a nearby predetermined station.

(ステップS212)
ユーザ端末10の表示制御モジュール138は、警告情報を画面に表示制御する。例えば、警告情報は、ポップアップ等で画面に通知されたり、アプリケーションにおいて画面を切り替えて表示制御されたりする。
(Step S212)
The display control module 138 of the user terminal 10 controls the display of warning information on the screen. For example, the warning information is notified on the screen as a pop-up or the like, or the display is controlled by switching screens in an application.

(ステップS214)
ユーザは、所定のステーションに自転車30を返却し、再度自転車30を撮影したとする。このとき、ユーザ端末10の誘導モジュール137は、画像データを取得する。
(Step S214)
It is assumed that the user returns the bicycle 30 to a predetermined station and photographs the bicycle 30 again. At this time, the guidance module 137 of the user terminal 10 acquires image data.

(ステップS216)
誘導モジュール137は、ユーザ端末10のGPS機能等を用いて現在の位置情報を取得する。
(Step S216)
The guidance module 137 uses the GPS function or the like of the user terminal 10 to obtain current position information.

(ステップS218)
ネットワーク通信モジュール132は、画像データと位置情報とをサーバ20に送信する。この後、サーバ20の管理モジュール234が再度返却判定を行う。ここでは、判定結果が肯定であったとするが、仮に、判定結果が否定であった場合、再度ステップS210が実行される。
(Step S218)
Network communication module 132 transmits image data and location information to server 20. After this, the management module 234 of the server 20 performs the return determination again. Here, it is assumed that the determination result is positive, but if the determination result is negative, step S210 is executed again.

(ステップS220)
サーバ20のネットワーク通信モジュール232は、返却のレポート情報をユーザ端末10に送信する。
(Step S220)
The network communication module 232 of the server 20 transmits return report information to the user terminal 10.

(ステップS222)
ユーザ端末10の表示制御モジュール138は、返却のレポート情報を画面に表示制御する。例えば、レポート情報は、利用開始位置、返却位置、利用時間、費用等を含んでもよい。
(Step S222)
The display control module 138 of the user terminal 10 controls the display of return report information on the screen. For example, the report information may include the usage start location, return location, usage time, cost, etc.

以上、本開示技術は、適切な画像データをサーバ20側に送信することで、シェアリングサービスにおける乗り物返却時の管理コストの増加を軽減させることが可能になる。また、本開示技術は、所定のマーカである情報コード40を読み取る処理から誘導を経て適切な画像データを取得することが可能になる。 As described above, by transmitting appropriate image data to the server 20 side, the disclosed technology can reduce the increase in management costs when returning a vehicle in a sharing service. Furthermore, the disclosed technology makes it possible to obtain appropriate image data through guidance from the process of reading the information code 40, which is a predetermined marker.

<画面例>
次に、ユーザ端末10の画面に表示される例について説明する。図9は、実施形態に係る画面の遷移例を示す図である。図9に示す左上の画面は、情報コード40の撮影を誘導する画面例である。例えば、画面内に「QRコードを写してください」と表示される。
<Screen example>
Next, an example displayed on the screen of the user terminal 10 will be described. FIG. 9 is a diagram showing an example of screen transition according to the embodiment. The upper left screen shown in FIG. 9 is an example of a screen that guides photographing of the information code 40. For example, "Please copy the QR code" is displayed on the screen.

上部中央の画面は、情報コード40が認識され、ARコンテンツA10が画面に表示される画面例である。このARコンテンツA10が、撮像装置160の位置を誘導する情報である。この画面例では、ARコンテンツA10が画面内におさまっていないため、ユーザに対し、自転車30から距離をとるように誘導している。 The screen at the top center is an example of a screen where the information code 40 is recognized and the AR content A10 is displayed on the screen. This AR content A10 is information that guides the position of the imaging device 160. In this screen example, since the AR content A10 is not contained within the screen, the user is guided to keep a distance from the bicycle 30.

右上の画面は、ユーザが自転車30から離れる途中の画面例である。ユーザが自転車30から離れることで、ARコンテンツA10の全体が見えてきており、このARコンテンツA10は、もう少し自転車30から離れることを誘導している。 The upper right screen is an example of a screen when the user is leaving the bicycle 30. As the user moves away from the bicycle 30, the entire AR content A10 becomes visible, and this AR content A10 guides the user to move away from the bicycle 30 a little more.

右下の画面は、撮像装置160と自転車30との距離が所定距離離れたことで、撮影ボタンB10が有効化する画面例である。上部の画面例ではいずれも撮影ボタンB10は無効化されている。これにより、ユーザは、この位置で撮影すればよいことが容易に理解することができる。 The lower right screen is an example of a screen in which the photographing button B10 is activated when the distance between the imaging device 160 and the bicycle 30 becomes a predetermined distance. In all of the upper screen examples, the shooting button B10 is disabled. This allows the user to easily understand that it is only necessary to take a photograph at this position.

下部中央の画面は、撮影により取得された画像データの送信を確認する画面例である。この確認画面に表示される「送信」をユーザが押下することで、誘導により撮影されて取得された画像データをサーバ20に送信することができる。 The screen at the center of the bottom is an example of a screen for confirming the transmission of image data acquired by photography. When the user presses "Send" displayed on this confirmation screen, the image data taken and acquired by the guidance can be transmitted to the server 20.

なお、ARコンテンツA10は、情報コード10と撮像装置160との位置関係に応じて変動される画像が好適であり、距離と向きとが変動される画像により表されるとよい。 Note that the AR content A10 is preferably an image that changes depending on the positional relationship between the information code 10 and the imaging device 160, and is preferably represented by an image that changes the distance and direction.

なお、開示技術は、上述した各実施形態に限定されるものではなく、開示技術の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記各実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。 Note that the disclosed technology is not limited to the embodiments described above, and can be implemented in various other forms without departing from the gist of the disclosed technology. Therefore, the above embodiments are merely illustrative in all respects, and should not be interpreted in a limited manner. For example, each of the above-mentioned processing steps can be arbitrarily changed in order or executed in parallel as long as there is no inconsistency in the processing contents.

本開示の各実施形態のプログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。 記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、限定でなく例として、ソフトウェアプログラムやコンピュータプログラムを含む。 The program of each embodiment of the present disclosure may be provided in a state stored in a computer-readable storage medium. The storage medium is a "non-temporary tangible medium" that can store a program. Programs include, by way of example and not limitation, software programs and computer programs.

[変形例]
また、上述した各実施形態における変形例を以下に示す。
[Modified example]
Further, modifications of each of the above-described embodiments are shown below.

<変形例1>
変形例1では、上記実施形態において、撮像対象として、シェアリングサービスに利用される自転車30を例にしたが、所定のマーカを有するものであれば、シェアリングサービスに限らず、いずれのものでもよい。例えば、撮影の対象物は、撮像装置160の画角内に入るようなオブジェクトであればよく、例えば、家具、服飾品、文房具、電化製品、生活用品、車両などでもよい。また、所定の位置に配置されるモノであれば、本開示の技術は適用されうる。なお、変形例1でのシステム構成等は、実施形態の構成と同様である。
<Modification 1>
In the first modification, in the above embodiment, the bicycle 30 used in a sharing service is used as an example of the object to be imaged. good. For example, the object to be photographed may be any object that falls within the field of view of the imaging device 160, such as furniture, clothing, stationery, electrical appliances, daily necessities, and vehicles. Furthermore, the technology of the present disclosure can be applied to any object that is placed at a predetermined position. Note that the system configuration and the like in Modification 1 are similar to the configuration of the embodiment.

<変形例2>
変形例2では、上記実施形態において撮影対象は、自転車30だけを例にして説明したが、その他のものを撮影することを排除することを意図していない。例えば自転車30の場合、所定ステーションに設置されたポートと自転車30とが一緒に撮像されるように、撮影距離と向き(角度)とが予め撮影条件として設定されていてもよい。
<Modification 2>
In the second modification, the bicycle 30 is the only object to be photographed in the above embodiment, but this is not intended to exclude photographing other objects. For example, in the case of a bicycle 30, the photographing distance and direction (angle) may be set in advance as photographing conditions so that the port installed at a predetermined station and the bicycle 30 are photographed together.

1 情報処理システム
10、10A、10B 情報処理装置(ユーザ端末)
20、20A 情報処理装置(サーバ)
110、210 処理装置(CPU)
120、220 ネットワーク通信インタフェース
130、230 メモリ
131、231 オペレーティングシステム
132、232 ネットワーク通信モジュール
133 撮像データ
134 処理データ
135 認識モジュール
136 画像処理モジュール
137 誘導モジュール
138 表示制御モジュール
150 ユーザインタフェース
160 撮像装置
170 通信バス
233 管理データ
234 管理モジュール
235 警告モジュール
1 Information processing system 10, 10A, 10B Information processing device (user terminal)
20, 20A Information processing device (server)
110, 210 Processing unit (CPU)
120, 220 Network communication interface 130, 230 Memory 131, 231 Operating system 132, 232 Network communication module 133 Imaging data 134 Processing data 135 Recognition module 136 Image processing module 137 Guidance module 138 Display control module 150 User interface 160 Imaging device 170 Communication bus 233 Management data 234 Management module 235 Warning module

Claims (8)

情報処理装置に含まれる1又は複数のプロセッサに、
撮影中の画像データから所定マーカを認識すること、
前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行すること、
前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、
前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導すること
前記撮像装置により撮像された、前記対象物を含む画像データを、他の情報処理装置に送信することであって、前記所定マーカが認識された時に前記情報処理装置の第1位置情報を前記他の情報処理装置に送信することを含む、送信すること、
前記他の情報処理装置により、前記第1位置情報が所定位置にないと判定された場合、警告情報を取得すること、
前記警告情報を画面に表示制御すること、
前記対象物を含む画像データが撮像された時に前記情報処理装置の第2位置情報を前記他の情報処理装置に送信すること、
前記他の情報処理装置により、前記第2位置情報が前記所定位置にあると判定された場合、前記警告情報を非表示にするリクエスト情報を取得すること、
前記リクエスト情報に応じて、前記警告情報を非表示にすること、
を実行させるプログラム。
One or more processors included in the information processing device,
Recognizing a predetermined marker from image data being captured;
executing a surrounding environment mapping process for creating a three-dimensional space and a self-position estimation process for estimating the position of the imaging device in the three-dimensional space, based on the image data being captured;
identifying a correspondence relationship between the position of the predetermined marker and the position of the imaging device in the three-dimensional space;
Based on the correspondence relationship, the position or orientation of the imaging device guides the object including the predetermined marker to a position or orientation where it can be photographed ;
transmitting image data including the object captured by the imaging device to another information processing device, and transmitting first position information of the information processing device to the other information processing device when the predetermined marker is recognized; transmitting, including transmitting to an information processing device;
acquiring warning information when the other information processing device determines that the first location information is not at a predetermined location;
controlling the display of the warning information on a screen;
transmitting second position information of the information processing device to the other information processing device when image data including the target object is captured;
acquiring request information for hiding the warning information when the other information processing device determines that the second location information is at the predetermined position;
Hiding the warning information according to the request information;
A program to run.
前記1又は複数のプロセッサに、
前記撮影中の画像データに誘導情報を重畳して画面に表示制御することをさらに実行させる、請求項1に記載のプログラム。
the one or more processors;
2. The program according to claim 1, further causing guidance information to be superimposed on the image data being photographed and to be displayed on a screen.
前記表示制御することは、
前記対応関係に応じて変動する誘導情報を前記画像データに重畳することを含む、請求項2に記載のプログラム。
The display control includes:
3. The program according to claim 2, further comprising superimposing guidance information that varies depending on the correspondence relationship on the image data.
前記誘導することは、
前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに関する所定条件を満たす場合、前記撮像装置による撮影を許可することを含む、請求項1乃至3いずれか一項に記載のプログラム。
Said inducing:
4. The method according to claim 1, further comprising: permitting photographing by the imaging device when the position or orientation of the imaging device satisfies a predetermined condition regarding a position or orientation in which an object including the predetermined marker can be photographed. The program described in Section.
前記警告情報は、所定時間内に前記対象物を前記所定位置に移動させることを促す時間情報を含む、請求項に記載のプログラム。 The program according to claim 1 , wherein the warning information includes time information urging the object to be moved to the predetermined position within a predetermined time. 前記1又は複数のプロセッサに、
前記画像データに基づき前記対象物を認識し、当該対象物が撮影条件を満たすか否かをさらに判定する、請求項1乃至いずれか一項に記載のプログラム。
the one or more processors;
6. The program according to claim 1, wherein the program recognizes the object based on the image data and further determines whether the object satisfies a photographing condition.
情報処理装置に含まれる1又は複数のプロセッサが、
撮影中の画像データから所定マーカを認識すること、
前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行すること、
前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、
前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導すること、
前記撮像装置により撮像された、前記対象物を含む画像データを、他の情報処理装置に送信することであって、前記所定マーカが認識された時に前記情報処理装置の第1位置情報を前記他の情報処理装置に送信することを含む、送信すること、
前記他の情報処理装置により、前記第1位置情報が所定位置にないと判定された場合、警告情報を取得すること、
前記警告情報を画面に表示制御すること、
前記対象物を含む画像データが撮像された時に前記情報処理装置の第2位置情報を前記他の情報処理装置に送信すること、
前記他の情報処理装置により、前記第2位置情報が前記所定位置にあると判定された場合、前記警告情報を非表示にするリクエスト情報を取得すること、
前記リクエスト情報に応じて、前記警告情報を非表示にすること、
を実行する情報処理方法。
One or more processors included in the information processing device,
Recognizing a predetermined marker from image data being captured;
executing a surrounding environment mapping process for creating a three-dimensional space and a self-position estimation process for estimating the position of the imaging device in the three-dimensional space, based on the image data being captured;
identifying a correspondence relationship between the position of the predetermined marker and the position of the imaging device in the three-dimensional space;
Based on the correspondence relationship, the position or orientation of the imaging device guides the object including the predetermined marker to a position or orientation where it can be photographed;
transmitting image data including the object captured by the imaging device to another information processing device, and transmitting first position information of the information processing device to the other information processing device when the predetermined marker is recognized; transmitting, including transmitting to an information processing device;
acquiring warning information when the other information processing device determines that the first location information is not at a predetermined location;
controlling the display of the warning information on a screen;
transmitting second position information of the information processing device to the other information processing device when image data including the target object is captured;
acquiring request information for hiding the warning information when the other information processing device determines that the second location information is at the predetermined position;
Hiding the warning information according to the request information;
An information processing method that performs.
1又は複数のプロセッサを含む情報処理装置であって、
前記1又は複数のプロセッサが、
撮影中の画像データから所定マーカを認識すること、
前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行すること、
前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、
前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導すること、
前記撮像装置により撮像された、前記対象物を含む画像データを、他の情報処理装置に送信することであって、前記所定マーカが認識された時に前記情報処理装置の第1位置情報を前記他の情報処理装置に送信することを含む、送信すること、
前記他の情報処理装置により、前記第1位置情報が所定位置にないと判定された場合、警告情報を取得すること、
前記警告情報を画面に表示制御すること、
前記対象物を含む画像データが撮像された時に前記情報処理装置の第2位置情報を前記他の情報処理装置に送信すること、
前記他の情報処理装置により、前記第2位置情報が前記所定位置にあると判定された場合、前記警告情報を非表示にするリクエスト情報を取得すること、
前記リクエスト情報に応じて、前記警告情報を非表示にすること、
を実行する情報処理装置。
An information processing device including one or more processors,
The one or more processors,
Recognizing a predetermined marker from image data being captured;
executing a surrounding environment mapping process for creating a three-dimensional space and a self-position estimation process for estimating the position of the imaging device in the three-dimensional space, based on the image data being captured;
identifying a correspondence relationship between the position of the predetermined marker and the position of the imaging device in the three-dimensional space;
Based on the correspondence relationship, the position or orientation of the imaging device guides the object including the predetermined marker to a position or orientation where it can be photographed;
transmitting image data including the object captured by the imaging device to another information processing device, and transmitting first position information of the information processing device to the other information processing device when the predetermined marker is recognized; transmitting, including transmitting to an information processing device;
acquiring warning information when the other information processing device determines that the first location information is not at a predetermined location;
controlling the display of the warning information on a screen;
transmitting second position information of the information processing device to the other information processing device when image data including the target object is captured;
acquiring request information for hiding the warning information when the other information processing device determines that the second location information is at the predetermined position;
Hiding the warning information according to the request information;
An information processing device that executes.
JP2019161165A 2019-09-04 2019-09-04 Program, information processing method, and information processing device Active JP7360854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161165A JP7360854B2 (en) 2019-09-04 2019-09-04 Program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161165A JP7360854B2 (en) 2019-09-04 2019-09-04 Program, information processing method, and information processing device

Publications (2)

Publication Number Publication Date
JP2021039586A JP2021039586A (en) 2021-03-11
JP7360854B2 true JP7360854B2 (en) 2023-10-13

Family

ID=74847156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161165A Active JP7360854B2 (en) 2019-09-04 2019-09-04 Program, information processing method, and information processing device

Country Status (1)

Country Link
JP (1) JP7360854B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223599A (en) 2011-05-31 2011-11-04 Casio Comput Co Ltd Photographing apparatus and program
JP2012160016A (en) 2011-01-31 2012-08-23 Canon Marketing Japan Inc Vehicle management system, vehicle management server, vehicle management method, program and storage medium
JP2013200736A (en) 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd Bicycle sharing system
JP2015082830A (en) 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160016A (en) 2011-01-31 2012-08-23 Canon Marketing Japan Inc Vehicle management system, vehicle management server, vehicle management method, program and storage medium
JP2011223599A (en) 2011-05-31 2011-11-04 Casio Comput Co Ltd Photographing apparatus and program
JP2013200736A (en) 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd Bicycle sharing system
JP2015082830A (en) 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Also Published As

Publication number Publication date
JP2021039586A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
KR102098516B1 (en) Passenger management device and passenger management method
JP2019537760A5 (en)
KR20210146354A (en) Vehicle door unlock control method, device, vehicle, appliance, medium and program
US10223107B2 (en) Supporting the provision of services
US11315430B2 (en) System, program, and method for detecting information on a person from a video of an on-vehicle camera
TW201011696A (en) Information registering device for detection, target sensing device, electronic equipment, control method of information registering device for detection, control method of target sensing device, information registering device for detection control progr
KR20120089402A (en) Apparatus for providing ubiquitous geometry information system contents service and method thereof
CN109964186A (en) Remote independent ride sharing supervision
CN110520890B (en) Work information transmitting apparatus, construction management system, work information transmitting method, and computer-readable recording medium
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
US20240040352A1 (en) Information processing system, program, and information processing method
JP7360854B2 (en) Program, information processing method, and information processing device
US11720224B2 (en) Data storage using image objects shown in a real-time view
JP2011197728A (en) Shared vehicle management device
KR20220085150A (en) Intelligent construction site management supporting system server and method based extended reality
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
CN113781792B (en) Parking detection system, method and related equipment
JP2022136115A (en) Video conference system, video conference method, and program
CN110392645A (en) The communication of parking management and parking information
KR102132945B1 (en) UAV landing induction method
JP2007166036A (en) Image generating program, image-generation support program and method for generating event image
CN110352147A (en) Autonomous bus silent alarm
US20230196260A1 (en) Vehicle, information processing system, non-transitory storage medium, and information processing device
JP6040804B2 (en) Object identification system and object identification method
KR101095414B1 (en) Control system and method for transportation machine using mobile apparatus

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7360854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150