JP2021039586A - Program, information processing method, and information processing apparatus - Google Patents

Program, information processing method, and information processing apparatus Download PDF

Info

Publication number
JP2021039586A
JP2021039586A JP2019161165A JP2019161165A JP2021039586A JP 2021039586 A JP2021039586 A JP 2021039586A JP 2019161165 A JP2019161165 A JP 2019161165A JP 2019161165 A JP2019161165 A JP 2019161165A JP 2021039586 A JP2021039586 A JP 2021039586A
Authority
JP
Japan
Prior art keywords
information
image data
information processing
predetermined
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019161165A
Other languages
Japanese (ja)
Other versions
JP7360854B2 (en
Inventor
結 横田
Yui Yokota
結 横田
俊成 中村
Toshinari Nakamura
俊成 中村
優衣 稲富
Yui Inatomi
優衣 稲富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neuet Inc
Original Assignee
Neuet Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neuet Inc filed Critical Neuet Inc
Priority to JP2019161165A priority Critical patent/JP7360854B2/en
Publication of JP2021039586A publication Critical patent/JP2021039586A/en
Application granted granted Critical
Publication of JP7360854B2 publication Critical patent/JP7360854B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a program, an information processing method, and an information processing apparatus for reducing an increase in management costs when returning a vehicle in a sharing service.SOLUTION: A program causes one or more processors included in an information processing apparatus to execute processing of: recognizing a predetermined marker from image data being photographed; executing, based on the image data being photographed, an ambient environment mapping process that creates three-dimensional space and a self-position estimation process that estimates a position of an imaging apparatus in the three-dimensional space; identifying correspondence relationship between a position of the predetermined marker and the position of the imaging apparatus in the three-dimensional space; and guiding an object including the predetermined marker to a position or orientation in which the object can be photographed, depending on the position or orientation of the imaging apparatus based on the correspondence relationship.SELECTED DRAWING: Figure 7

Description

本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to programs, information processing methods, and information processing devices.

近年、乗り物をシェアするサービスが増えてきており、シェアする乗り物の貸出、返却を管理するためのシステム開発が行われている。例えば、レンタル車両に発信機を搭載し、ユーザの携帯端末と通信を行うことで、車両を管理する技術が公開されている
(例えば、特許文献1参照)。
In recent years, the number of services for sharing vehicles has increased, and systems for managing the lending and returning of shared vehicles are being developed. For example, a technique for managing a vehicle by mounting a transmitter on a rental vehicle and communicating with a user's mobile terminal has been disclosed (see, for example, Patent Document 1).

特開2019−75090号公報JP-A-2019-75090

ここで、シェアする乗り物の位置や開錠を管理するため、情報コード(バーコードやQRコード(登録商標)、NFC等)を乗り物に付与して、乗り物等を管理することが考えられる。この場合、乗り物の返却時に、乗り物が所定の場所に返却されたかどうかや、その乗り物に不備がなかったかなどを管理したいというニーズと、その管理コストを軽減したいというニーズがある。そこで、乗り物の返却時に、乗り物を撮影した画像を、シェアリングサービスを提供する会社に送信することが考えられるが、適切な撮影が行われなければ、オペレータによる確認や連絡が発生し、却って管理コストが増大してしまうという課題がある。 Here, in order to manage the position and unlocking of the shared vehicle, it is conceivable to assign an information code (bar code, QR code (registered trademark), NFC, etc.) to the vehicle to manage the vehicle or the like. In this case, when the vehicle is returned, there is a need to manage whether the vehicle has been returned to a predetermined place, whether the vehicle has any defects, and a need to reduce the management cost. Therefore, when returning the vehicle, it is conceivable to send the image of the vehicle to the company that provides the sharing service, but if proper shooting is not done, confirmation and contact by the operator will occur and management will be done instead. There is a problem that the cost increases.

本開示は、シェアリングサービスにおける乗り物返却時の管理コストの増加を軽減させることが可能なプログラム、情報処理方法、及び情報処理装置を提供することを目的の一つとする。 One of the purposes of the present disclosure is to provide a program, an information processing method, and an information processing device capable of reducing an increase in management cost when returning a vehicle in a sharing service.

本開示の一実施形態に係るプログラムは、情報処理装置に含まれる1又は複数のプロセッサに、撮影中の画像データから所定マーカを認識すること、前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内像装置の位置を推定する自己位置推定処理とを実行すること、前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導することを実行させる。 The program according to the embodiment of the present disclosure recognizes a predetermined marker from the image data being photographed by one or a plurality of processors included in the information processing apparatus, and is based on the image data being photographed in a three-dimensional space. The surrounding environment mapping process for creating the above and the self-position estimation process for estimating the position of the image device in the three-dimensional space are executed, and the position of the predetermined marker and the position of the image pickup device in the three-dimensional space are determined. Identifying the correspondence relationship, and based on the correspondence relationship, the position or orientation of the imaging device guides the object including the predetermined marker to a position or orientation that can be photographed.

開示の技術によれば、シェアリングサービスにおける乗り物返却時の管理コストの増加を軽減させることが可能となる。 According to the disclosed technology, it is possible to reduce the increase in management cost when returning a vehicle in the sharing service.

実施形態における情報処理システム1の各構成例を示す図である。It is a figure which shows each configuration example of the information processing system 1 in embodiment. 実施形態に係るユーザ端末10の一例を示すブロック図である。It is a block diagram which shows an example of the user terminal 10 which concerns on embodiment. 実施形態に係るサーバ20の一例を示すブロック図である。It is a block diagram which shows an example of the server 20 which concerns on embodiment. 実施形態に係る、ユーザ端末10により処理される処理データ134の一例を示す図である。It is a figure which shows an example of the processing data 134 processed by the user terminal 10 which concerns on embodiment. 実施形態に係る管理データ233の第1データの一例を示す図である。It is a figure which shows an example of the 1st data of the management data 233 which concerns on embodiment. 実施形態に係る管理データ233の第2データの一例を示す図である。It is a figure which shows an example of the 2nd data of the management data 233 which concerns on embodiment. 実施形態に係る情報処理システム1の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the information processing system 1 which concerns on embodiment. 実施形態に係る画像データの処理に関するシーケンス図である。It is a sequence diagram concerning the processing of the image data which concerns on embodiment. 実施形態に係る画面の遷移例を示す図である。It is a figure which shows the transition example of the screen which concerns on embodiment.

以下、本開示の実施形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The same elements are designated by the same reference numerals, and duplicate description will be omitted.

[実施形態]
実施形態では、シェアリングサービスにおける乗り物を返却する際に、その乗り物を撮影して、サーバに送信することで、サーバ側で適切に返却がなされたかなどを管理するシステムについて説明する。実施形態では、乗り物には、位置情報や開錠などを管理するための所定マーカの一例として情報コードが付与されており、ユーザが、この情報コードを携帯端末等で読み取ることで、サーバ側では、その乗り物の鍵を開け、どの位置からユーザが利用を開始したか等を管理する。以下、乗り物は、自転車を例にして説明するが、車やバイクなどの車両でもよい。また、乗り物に付与される情報コードは、その乗り物を識別するためのIDなども含まれており、乗り物を特定するためだけなどの目的で付与されてもよい。
[Embodiment]
In the embodiment, when returning a vehicle in the sharing service, a system for managing whether or not the vehicle has been properly returned on the server side by taking a picture of the vehicle and transmitting it to the server will be described. In the embodiment, an information code is given to the vehicle as an example of a predetermined marker for managing position information, unlocking, etc., and the user reads the information code with a mobile terminal or the like on the server side. , Unlock the vehicle and manage from which position the user started using it. Hereinafter, the vehicle will be described by taking a bicycle as an example, but the vehicle may be a vehicle such as a car or a motorcycle. Further, the information code given to the vehicle also includes an ID for identifying the vehicle, and may be given only for the purpose of identifying the vehicle.

<システムの適用例>
図1は、実施形態における情報処理システム1の各構成例を示す図である。図1に示す例では、各ユーザが利用する情報処理装置10A、10B、各ユーザが利用可能な自転車30A、30B、シェアリングサービスを管理するサーバ20AがネットワークNを介して接続される。なお、自転車30A、30Bそれぞれには、情報コード40A、40Bが付与されている。
<System application example>
FIG. 1 is a diagram showing each configuration example of the information processing system 1 in the embodiment. In the example shown in FIG. 1, the information processing devices 10A and 10B used by each user, the bicycles 30A and 30B available to each user, and the server 20A that manages the sharing service are connected via the network N. Information codes 40A and 40B are assigned to the bicycles 30A and 30B, respectively.

情報処理装置10A、10Bは、例えば、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ、PDA(Personal Digital Assistant)などであり、内蔵又は外付けの撮像装置を有する。なお、情報処理装置10A及び10Bを区別しないときは、情報処理装置10と表記する。情報処理装置10は、ユーザが利用する端末であるため、ユーザ端末10とも表記する。 The information processing devices 10A and 10B are, for example, a smartphone, a mobile phone (feature phone), a computer, a PDA (Personal Digital Assistant), and the like, and have a built-in or external imaging device. When the information processing devices 10A and 10B are not distinguished, they are referred to as the information processing device 10. Since the information processing device 10 is a terminal used by the user, it is also referred to as a user terminal 10.

情報処理装置20Aは、例えばサーバであり、1又は複数の装置により構成されてもよい。また、情報処理装置20Aは、シェアリングサービスを管理する処理を実行する。以下、情報処理装置20Aは、サーバ20とも表記する。 The information processing device 20A is, for example, a server, and may be composed of one or more devices. Further, the information processing device 20A executes a process of managing the sharing service. Hereinafter, the information processing device 20A is also referred to as a server 20.

自転車30A、30Bは、基本的には所定のステーションに位置しており、ユーザにより利用されて、同じ又は別のステーションに返却される。なお、自転車30A、30Bを区別しないときは、自転車30とも表記する。情報コード40A、40Bが、画像撮影中に認識可能な所定のマーカであればよい。以下では、情報コード40A、40Bを区別しないときは、情報コード40とも表記する。なお、自転車30の数は、任意の数が用意されればよい。 The bicycles 30A and 30B are basically located at a predetermined station, used by the user, and returned to the same or another station. When the bicycles 30A and 30B are not distinguished, they are also referred to as the bicycle 30. The information codes 40A and 40B may be predetermined markers that can be recognized during image capture. In the following, when the information codes 40A and 40B are not distinguished, they are also referred to as the information code 40. Any number of bicycles 30 may be prepared.

図1に示す例では、ユーザ端末10は、これからユーザが利用する自転車30の情報コード40を読み取り、読み取った情報をサーバ20に送信する。例えば、サーバ20は、読み取った情報に含まれる自転車IDを用いて、その自転車IDに対応する自転車30の鍵部に対し、鍵を開錠するための開錠信号を送信する。鍵部は、開錠信号を受信すると、鍵を開錠する。これにより、ユーザは、その自転車30を利用することが可能になる。 In the example shown in FIG. 1, the user terminal 10 reads the information code 40 of the bicycle 30 to be used by the user, and transmits the read information to the server 20. For example, the server 20 uses the bicycle ID included in the read information to transmit an unlocking signal for unlocking the key to the key portion of the bicycle 30 corresponding to the bicycle ID. When the key unit receives the unlock signal, it unlocks the key. This allows the user to use the bicycle 30.

ユーザは、自転車30の利用を終え、所定のステーションに自転車30を返却し、鍵をロックする。このとき、ユーザは、自転車30に付与された情報コード40を、ユーザ端末10を用いて読み取り、返却した自転車30の撮影がユーザ端末10によって促される。ユーザは、ユーザ端末10に誘導されるとおりに、ユーザ端末10を移動させ、自転車30を撮影する。この撮影によって撮像された画像データがサーバ20に送信される。これにより、シェアリングサービスを提供する企業は、誘導によって所望の画像データを取得することができ、不適切な画像データが取得されることによる管理コストの増加を防ぐことができる。 The user finishes using the bicycle 30, returns the bicycle 30 to a predetermined station, and locks the key. At this time, the user reads the information code 40 given to the bicycle 30 by using the user terminal 10, and the user terminal 10 prompts the user to take a picture of the returned bicycle 30. The user moves the user terminal 10 and photographs the bicycle 30 as guided by the user terminal 10. The image data captured by this shooting is transmitted to the server 20. As a result, the company that provides the sharing service can acquire desired image data by guidance, and can prevent an increase in management cost due to acquisition of inappropriate image data.

なお、自転車30の撮影は返却時に毎回促される構成でなくてもよく、所定の条件を満たした場合に促される構成でもよい。所定の条件は、例えば正しく返却処理行われなかった場合(自転車30が返却された位置が所定のステーションと異なる等)や、返却された時間帯が特定の時間帯である場合や、返却したユーザが特定のユーザ空いである場合等である。 It should be noted that the photography of the bicycle 30 does not have to be prompted every time it is returned, and it may be such that it is prompted when a predetermined condition is satisfied. The predetermined conditions are, for example, when the return process is not performed correctly (the position where the bicycle 30 is returned is different from the predetermined station, etc.), when the returned time zone is a specific time zone, or when the returned user Is vacant for a specific user, etc.

<構成の一例>
図2は、実施形態に係るユーザ端末10の一例を示すブロック図である。ユーザ端末10は典型的には、1つ又は複数の処理装置(CPU)110、1つ又は複数のネットワーク又は他の通信インタフェース120、メモリ130、ユーザインタフェース150、撮像装置160、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス170を含む。
<Example of configuration>
FIG. 2 is a block diagram showing an example of the user terminal 10 according to the embodiment. The user terminal 10 typically has one or more processing units (CPUs) 110, one or more networks or other communication interfaces 120, memory 130, user interfaces 150, imaging devices 160, and components thereof. Includes one or more communication buses 170 for interconnecting.

ユーザインタフェース150は、例えば、ディスプレイ装置151及びタッチパネル152を備えるユーザインタフェース150である。また、タッチパネル152は、キーボード及び/又はマウス(又は他の何らかのポインティングデバイス等の入力装置)でもよい。 The user interface 150 is, for example, a user interface 150 including a display device 151 and a touch panel 152. Further, the touch panel 152 may be a keyboard and / or a mouse (or an input device such as some other pointing device).

メモリ130は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。 The memory 130 is, for example, a high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid-state storage, and one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or It may be a non-volatile memory such as another non-volatile solid-state storage device.

また、メモリ130の他の例として、CPU110から遠隔に設置される1つ又は複数の記憶装置でもよい。ある実施形態において、メモリ130は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。 Further, as another example of the memory 130, one or a plurality of storage devices installed remotely from the CPU 110 may be used. In certain embodiments, the memory 130 stores the following programs, modules and data structures, or a subset thereof.

オペレーティングシステム131は、例えば、様々な基本的なシステムサービスを処理するとともにハードウェアを用いてタスクを実行するためのプロシージャを含む。 Operating system 131 includes, for example, procedures for processing various basic system services and performing tasks using hardware.

ネットワーク通信モジュール132は、例えば、ユーザ端末10を他のコンピュータに、1つ又は複数のネットワーク通信インタフェース120及び、インターネット、他の広域ネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ又は複数の通信ネットワークを介して接続するために使用される。 The network communication module 132 connects the user terminal 10 to another computer, for example, one or more network communication interfaces 120, and one or more communications such as the Internet, another wide area network, a local area network, and a metropolitan area network. Used to connect over the network.

撮像データ133は、撮像装置160により撮影中の画像データを含む。画像データは、動画像データ、静止画像データいずれでもよい。 The image pickup data 133 includes image data being photographed by the image pickup apparatus 160. The image data may be either moving image data or still image data.

処理データ134は、撮影中の画像データを用いて、後述する画像処理モジュール136により処理されるデータを含む。例えば、処理データ134は、画像データの特徴点データや、特徴点データをもとに作成される3次元空間モデルや、作成された3次元空間モデル内における撮像装置160の位置が推定された自己位置情報などを含み、図4を用いて後述する。 The processing data 134 includes data processed by the image processing module 136, which will be described later, using the image data during shooting. For example, the processed data 134 is a self in which the position of the image pickup device 160 is estimated in the feature point data of the image data, the three-dimensional space model created based on the feature point data, or the created three-dimensional space model. It includes position information and the like, and will be described later with reference to FIG.

認識モジュール135は、撮影中の画像データに含まれる情報コード40を認識し、情報コード40に含まれる情報を読み取る。例えば、情報コード40には、コードIDや、自転車を識別する自転車IDなどを含む。読み取られた情報は、ネットワーク通信モジュール132を用いて、サーバ20に送信される。 The recognition module 135 recognizes the information code 40 included in the image data being photographed and reads the information contained in the information code 40. For example, the information code 40 includes a code ID, a bicycle ID that identifies a bicycle, and the like. The read information is transmitted to the server 20 by using the network communication module 132.

画像処理モジュール136は、撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理(環境地図生成処理)と、3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行する。例えば、画像処理モジュール136は、SLAM(Simultaneous Localization and Mapping)等の技術を用いて、画像データをもとに平面や物体を認識して空間を作成する周囲環境マッピング処理と、撮影している撮像装置160の位置が空間内でどこにいるのかを推定する自己位置推定処理とを同時に行う。 The image processing module 136 includes an ambient environment mapping process (environment map generation process) that creates a three-dimensional space based on the image data being photographed, and a self-position estimation process that estimates the position of the imaging device in the three-dimensional space. To execute. For example, the image processing module 136 uses a technique such as SLAM (Simultaneous Localization and Mapping) to perform ambient environment mapping processing that recognizes a plane or an object based on image data to create a space, and imaging that is being photographed. The self-position estimation process for estimating where the position of the device 160 is in the space is performed at the same time.

また、画像処理モジュール136は、Apple(登録商標)社が提供するARKit、Google社が提供するARCoreなどを用いて、VIO(Visual-Inertial Odometry)に基づき周囲環境マッピング処理と、自己位置推定処理とを行ってもよい。VIO技術では、ユーザ端末10の加速度センサやジャイロセンサからのセンシング情報も用いて、自己位置推定を行う。 Further, the image processing module 136 uses ARKit provided by Apple (registered trademark), ARCore provided by Google, etc., and performs ambient environment mapping processing and self-position estimation processing based on VIO (Visual-Inertial Odometry). May be done. In VIO technology, self-position estimation is performed using sensing information from the acceleration sensor and gyro sensor of the user terminal 10.

画像処理モジュール136は、認識された情報コード40に基づいて、3次元空間内における情報コード40の位置と撮像装置160の位置との対応関係を特定する。例えば、画像処理モジュール136は、生成された3次元空間内において、認識モジュール135により認識された情報コード40の位置と、自己位置推定処理で推定された撮像装置160の位置とを対応付ける。これにより、3次元空間内において、情報コード40と撮像装置160との位置関係を特定することが可能になる。 The image processing module 136 identifies the correspondence between the position of the information code 40 and the position of the image pickup apparatus 160 in the three-dimensional space based on the recognized information code 40. For example, the image processing module 136 associates the position of the information code 40 recognized by the recognition module 135 with the position of the image pickup apparatus 160 estimated by the self-position estimation process in the generated three-dimensional space. This makes it possible to specify the positional relationship between the information code 40 and the image pickup apparatus 160 in the three-dimensional space.

誘導モジュール137は、特定された対応関係に基づき、撮像装置160の位置又は向き(角度)が、情報コード40を含む対象物(例えば自転車30)等を撮影可能な位置又は向きに誘導する。例えば、誘導モジュール137は、3次元空間内において、情報コード40と撮像装置160との距離が設定されており、設定された距離以上になるように誘導する。誘導する方法は、ディスプレイ151に誘導情報を表示してもよいし、音や振動で誘導してもよい。ここでは、誘導情報が表示されることを例にして説明するが、この例に限られるものではない。 The guidance module 137 guides the position or orientation (angle) of the image pickup apparatus 160 to a position or orientation in which an object (for example, a bicycle 30) including the information code 40 can be photographed, based on the specified correspondence. For example, the guidance module 137 has a set distance between the information code 40 and the image pickup device 160 in the three-dimensional space, and guides the guide module 137 so that the distance is equal to or greater than the set distance. As a method of guiding, guidance information may be displayed on the display 151, or guidance may be performed by sound or vibration. Here, the display of guidance information will be described as an example, but the present invention is not limited to this example.

また、誘導モジュール137は、撮像装置160の向きについてもジャイロセンサなどを用いて誘導してもよい。自転車30と撮像装置160との位置関係が条件を満たしても、向きが適切でないと自転車30を適切に撮像することができない。そこで、誘導モジュール137は、撮像装置160の位置、及び/又は、向きが撮影条件を満たすように、撮像装置160の位置、及び/又は、向きを誘導してもよい。 Further, the guidance module 137 may also guide the orientation of the image pickup apparatus 160 by using a gyro sensor or the like. Even if the positional relationship between the bicycle 30 and the image pickup device 160 satisfies the condition, the bicycle 30 cannot be properly imaged unless the orientation is appropriate. Therefore, the guidance module 137 may guide the position and / or orientation of the image pickup apparatus 160 so that the position and / or orientation of the image pickup apparatus 160 satisfies the imaging condition.

これにより、対象物(例えば自転車30)全体が撮像装置30の画角内におさまるように誘導することが可能になり、誘導の結果、適切な画像データがサーバ20に送信されることで、管理コストの増加を軽減させることが可能になる。対象物は、自転車30以外にもステーションのポートなどを含んでもよい。また、ユーザは、情報コード40を読み取り、誘導にしたがって撮像装置160(を含むユーザ端末10)を移動させるだけでよく、例えば一連の流れの中で適切な画像を撮影することが可能になる。また、必ずしも対象物全体を撮像しなくてもよく、場合によっては、対象物の所定位置を撮像するように誘導がなされてもよい。 This makes it possible to guide the entire object (for example, the bicycle 30) so that it fits within the angle of view of the image pickup device 30, and as a result of the guidance, appropriate image data is transmitted to the server 20 for management. It becomes possible to reduce the increase in cost. The object may include a station port or the like in addition to the bicycle 30. Further, the user only needs to read the information code 40 and move the image pickup apparatus 160 (including the user terminal 10) according to the guidance, and can take an appropriate image in a series of flows, for example. Further, it is not always necessary to image the entire object, and in some cases, guidance may be made to image a predetermined position of the object.

また、表示制御モジュール138は、撮影中の画像データに誘導情報を重畳して画面に表示制御する。例えば、表示制御モジュール138は、3次元空間内における情報コード40の位置と撮像装置160の位置との対応関係に基づいて、テキストなどの誘導情報を、ディスプレイ151の画面に表示される画像データに重畳する。重畳される誘導情報は、テキストや画像(例えば矢印など)などを含む。 Further, the display control module 138 superimposes guidance information on the image data during shooting and controls the display on the screen. For example, the display control module 138 converts guidance information such as text into image data displayed on the screen of the display 151 based on the correspondence between the position of the information code 40 and the position of the image pickup device 160 in the three-dimensional space. Superimpose. The superimposed guidance information includes text, images (for example, arrows, etc.) and the like.

これにより、ユーザ端末10は、自転車30等を適切に撮影するための誘導情報を表示制御することで、例えば拡張現実(AR:Augmented Reality)などの技術(AR技術)を用いて、撮像装置160の位置を視覚的に誘導することが可能になる。その結果、適切な画像の撮影を迅速に行わせ、ユーザ端末10の処理効率を向上させることが可能になる。 As a result, the user terminal 10 displays and controls guidance information for appropriately photographing the bicycle 30 and the like, thereby using a technology (AR technology) such as Augmented Reality (AR) to display and control the image pickup device 160. It becomes possible to visually guide the position of. As a result, it is possible to quickly take an appropriate image and improve the processing efficiency of the user terminal 10.

また、表示制御モジュール138は、3次元空間内における情報コード40の位置と撮像装置160の位置との対応関係に応じて変動する誘導情報を画像データに重畳してもよい。例えば、表示制御モジュール138は、上述した対応関係に応じて、誘導情報のサイズや向きなどを変動させる。具体例としては、誘導情報として所定の画像を用いることができ、表示制御モジュール138は、AR技術を用いて、この画像のサイズや向きを所定のサイズや向きに仕向けることで、撮像装置160の位置や向きが自転車30を撮影可能な位置や向きに誘導する。例えば、重畳対象の画像は、情報コード40の検出位置に重畳されてもよい。 Further, the display control module 138 may superimpose guidance information that fluctuates according to the correspondence between the position of the information code 40 and the position of the image pickup apparatus 160 in the three-dimensional space on the image data. For example, the display control module 138 changes the size and direction of the guidance information according to the correspondence relationship described above. As a specific example, a predetermined image can be used as guidance information, and the display control module 138 uses AR technology to direct the size and orientation of this image to a predetermined size and orientation, so that the image pickup apparatus 160 can be used. The position and orientation guide the bicycle 30 to a position and orientation in which the image can be taken. For example, the image to be superimposed may be superimposed on the detection position of the information code 40.

これにより、ユーザ端末10は、自転車30等を適切に撮影するための誘導情報を、AR技術を用いて変動させながら表示制御することで、撮像装置160の位置を、より視覚的に誘導することが可能になる。その結果、適切な画像の撮影をより迅速に行わせ、ユーザ端末10の処理効率をさらに向上させることが可能になる。 As a result, the user terminal 10 more visually guides the position of the image pickup device 160 by controlling the display of the guidance information for appropriately photographing the bicycle 30 or the like while changing it by using the AR technology. Becomes possible. As a result, it is possible to take an appropriate image more quickly and further improve the processing efficiency of the user terminal 10.

また、誘導モジュール137は、撮像装置160の位置又は向きが、情報コード40を含む自転車30等を撮影可能な位置又は向きに関する所定条件を満たす場合、撮像装置160による撮影を許可するように制御してもよい。例えば、誘導モジュール137は、誘導の結果、3次元空間内で、情報コード40と撮像装置160との位置に関する対応関係が、自転車30を撮影する条件を満たすか否かを判定する。判定結果が肯定の場合(条件を満たす場合)、誘導モジュール137は、撮像装置160による撮影を許可する。 Further, the guidance module 137 is controlled so as to allow the image pickup device 160 to take a picture when the position or the direction of the image pickup device 160 satisfies a predetermined condition regarding the position or the direction in which the bicycle 30 or the like including the information code 40 can be photographed. You may. For example, the guidance module 137 determines, as a result of guidance, whether or not the correspondence relationship between the information code 40 and the image pickup device 160 in the three-dimensional space satisfies the condition for photographing the bicycle 30. When the determination result is affirmative (when the condition is satisfied), the guidance module 137 permits the imaging device 160 to take a picture.

また、表示制御モジュール138は、撮影が許可されると、撮影を可能にするUI部品(例えば撮影ボタン)を画面に表示制御してもよい。この撮影ボタンをユーザが押下することにより、撮像装置160は、画面に写る景色を撮像し、画像データを取得する。また、表示制御モジュール138は、誘導中の画面から撮影ボタンを表示させておくことも可能であり、撮影条件が満たされない場合は、撮影ボタンを押下できない状態(無効化)にし、撮影条件が満たれた場合、撮影ボタンを押下できる状態(有効化)に変更してもよい。さらに、表示制御モジュール138は、撮影条件が満たされた場合に、撮像装置160を制御して自動で撮影してもよい。 Further, the display control module 138 may display and control a UI component (for example, a shooting button) that enables shooting on the screen when shooting is permitted. When the user presses this shooting button, the image pickup device 160 captures the scenery reflected on the screen and acquires the image data. In addition, the display control module 138 can display the shooting button from the screen during guidance, and if the shooting condition is not satisfied, the shooting button cannot be pressed (disabled) and the shooting condition is satisfied. If this happens, you may change to a state where you can press the shooting button (enabled). Further, the display control module 138 may control the image pickup apparatus 160 to automatically take a picture when the shooting conditions are satisfied.

これにより、ユーザ端末10は、適切な撮影タイミングをユーザに知らせることができる。その結果、ユーザは、撮影タイミングを失うことなく、また、ユーザ端末10は、自転車30等の適切な画像を取得することが可能になる。 As a result, the user terminal 10 can inform the user of an appropriate shooting timing. As a result, the user can acquire an appropriate image of the bicycle 30 or the like without losing the shooting timing, and the user terminal 10 can acquire an appropriate image of the bicycle 30 or the like.

また、ネットワーク通信モジュール132は、撮像装置160により撮像された自転車30等を含む画像データを、他の情報処理装置(例えばサーバ20)に送信してもよい。例えば、ネットワーク通信モジュール132は、誘導モジュール137の制御に基づいて、撮像装置160により撮像された画像データをサーバ20に送信する。 Further, the network communication module 132 may transmit image data including the bicycle 30 and the like imaged by the image pickup device 160 to another information processing device (for example, the server 20). For example, the network communication module 132 transmits the image data captured by the image pickup device 160 to the server 20 under the control of the guidance module 137.

これにより、ユーザ端末10は、自転車30等を含む画像データをサーバ20に送信することが可能になり、サーバ20は、返却時の自転車30の状況を把握することが可能になる。誘導により適切な画像が送信される可能性が高まることで、サーバ20での返却時の管理が容易になり、管理コストの増加を軽減させることができる。なお、自転車30の状況とは、例えば故障や異常がないかなどであり、これらの判定は画像認識を用いて行うことが可能である。 As a result, the user terminal 10 can transmit image data including the bicycle 30 and the like to the server 20, and the server 20 can grasp the status of the bicycle 30 at the time of return. By increasing the possibility that an appropriate image is transmitted by the guidance, management at the time of return on the server 20 becomes easy, and an increase in management cost can be reduced. The situation of the bicycle 30 is, for example, whether or not there is a failure or abnormality, and these determinations can be made by using image recognition.

また、ネットワーク通信モジュール132は、情報コード40が認識された時にユーザ端末10の第1位置情報を他の情報処理装置(例えばサーバ20)に送信してもよい。及び/又は、ネットワーク通信モジュール132は、自転車30等を含む画像データが撮像された時にユーザ端末10の第2位置情報を他の情報処理装置(例えばサーバ20)に送信してもよい。例えば、ユーザ端末10の位置情報は、端末が備えるGPS(Global Positioning System)機能等により取得可能な緯度、経度情報などである。 Further, the network communication module 132 may transmit the first position information of the user terminal 10 to another information processing device (for example, the server 20) when the information code 40 is recognized. And / or, the network communication module 132 may transmit the second position information of the user terminal 10 to another information processing device (for example, the server 20) when the image data including the bicycle 30 or the like is captured. For example, the position information of the user terminal 10 is latitude and longitude information that can be acquired by the GPS (Global Positioning System) function or the like provided in the terminal.

これにより、他の情報処理装置(例えばサーバ20)は、自転車30の情報コード40の読取時の位置情報を取得し、所定のステーションに返却されたか否かを判定することが可能になる。また、自転車30が通信機能や位置計測機能等を有する場合は、鍵を施錠したときに、自転車30が位置情報を送信してもよく、この場合は、自転車30から送信された位置情報と、ユーザ端末10から送信された位置情報とを比較し、それぞれが同じステーションを示すか否かを判定してもよい。 As a result, another information processing device (for example, the server 20) can acquire the position information at the time of reading the information code 40 of the bicycle 30 and determine whether or not the bicycle 30 has been returned to a predetermined station. Further, when the bicycle 30 has a communication function, a position measurement function, or the like, the bicycle 30 may transmit the position information when the key is locked. In this case, the position information transmitted from the bicycle 30 and the position information are used. The location information transmitted from the user terminal 10 may be compared to determine whether or not each indicates the same station.

さらに、ユーザ端末10は、画像データの送信とともに第2位置情報を送信することで、画像データの送信時の第2位置情報が、所定のステーションを示すか否かを判定することが可能になる。その結果、情報コード40の読取時、画像データの送信時において、サーバ20側で、適切な場所で返却がなされた否かを把握することが可能になる。 Further, the user terminal 10 can determine whether or not the second position information at the time of transmitting the image data indicates a predetermined station by transmitting the second position information together with the transmission of the image data. .. As a result, when the information code 40 is read and when the image data is transmitted, it becomes possible for the server 20 to grasp whether or not the information code 40 has been returned at an appropriate place.

また、誘導モジュール137は、他の情報処理装置(例えばサーバ20)により、第1位置情報が所定位置にないと判定された場合、警告情報を取得してもよい。この場合、表示制御モジュール138は、警告情報を画面に表示制御してもよい。例えば、サーバ20側で、第1位置情報に基づき、所定のステーションに返却されずに乗り捨てされたと判定した場合、所定のステーションに返却することをユーザに求めるための警告情報をユーザ端末10に送信する。 Further, the guidance module 137 may acquire warning information when it is determined by another information processing device (for example, the server 20) that the first position information is not at a predetermined position. In this case, the display control module 138 may display and control the warning information on the screen. For example, when the server 20 determines that the user has been abandoned without being returned to the predetermined station based on the first location information, warning information for requesting the user to return to the predetermined station is transmitted to the user terminal 10. To do.

これにより、ユーザ端末10は警告情報を受信することで、自転車30を適切な場所に返却するようユーザに促すことができる。また、警告情報に、第1位置情報から近い所定のステーションの位置を知らせることも可能であり、所定のステーションへの返却率を向上させることも可能である。 As a result, the user terminal 10 can urge the user to return the bicycle 30 to an appropriate place by receiving the warning information. Further, it is possible to inform the warning information of the position of a predetermined station close to the first position information, and it is also possible to improve the return rate to the predetermined station.

また、誘導モジュール137は、他の情報処理装置(例えばサーバ20)により、第2位置情報が所定位置(予め設定された所定のステーションの位置)にあると判定された場合、警告情報を非表示にするリクエスト情報を取得してもよい。この場合、表示制御モジュール138は、リクエスト情報に応じて、警告情報を非表示にしてもよい。例えば、第1位置情報は、乗り捨ての位置を示したとしても、第2位置情報が、適切なステーションの位置を示せば、警告情報が非表示になるように制御される。 Further, the guidance module 137 hides the warning information when it is determined by another information processing device (for example, the server 20) that the second position information is at a predetermined position (a preset predetermined station position). You may get the request information to make. In this case, the display control module 138 may hide the warning information according to the request information. For example, even if the first position information indicates the drop-off position, the warning information is controlled so as to be hidden if the second position information indicates an appropriate station position.

これにより、サーバ20は所定のタイミングで位置情報を取得することで、自転車30の位置を把握することができ、自転車30の位置等を適切に管理することができる。 As a result, the server 20 can grasp the position of the bicycle 30 by acquiring the position information at a predetermined timing, and can appropriately manage the position of the bicycle 30 and the like.

また、警告情報は、所定時間内に自転車30を所定位置に移動させることを促す時間情報を含んでもよい。例えば、画面に所定時間(例えば10分)からカウントダウン表示させる。 Further, the warning information may include time information for prompting the bicycle 30 to move to a predetermined position within a predetermined time. For example, a countdown is displayed on the screen from a predetermined time (for example, 10 minutes).

これにより、ユーザに適切な位置への迅速な返却を促すことができる。また、所定時間内に適切な位置に返却されなかった場合は、そのユーザにペナルティを課すことも可能になる。 This can encourage the user to quickly return to the appropriate location. It is also possible to impose a penalty on the user if it is not returned to the proper position within the specified time.

誘導モジュール137は、画像データに基づき自転車30を認識し、この自転車30が撮影条件を満たすか否かをさらに判定してもよい。例えば、誘導モジュール137は、画像データから物体認識を行い、物体が自転車30であることを認識する。この場合、誘導モジュール137は、自転車30全体が画角内に入っているかの判定(撮影条件の判定)を行い、撮影条件を満たせば、撮影を許可してもよい。なお、物体認識は、画像処理モジュール136が行ってもよい。 The guidance module 137 may recognize the bicycle 30 based on the image data and further determine whether or not the bicycle 30 satisfies the photographing condition. For example, the guidance module 137 recognizes an object from image data and recognizes that the object is a bicycle 30. In this case, the guidance module 137 may determine whether the entire bicycle 30 is within the angle of view (determination of shooting conditions), and if the shooting conditions are satisfied, shooting may be permitted. The object recognition may be performed by the image processing module 136.

これにより、3次元空間内の位置関係だけではなく、撮影中の画像データから物体認識させることで、より適切な画像の取得可能性を高めることが可能になる。 As a result, it is possible to increase the possibility of acquiring a more appropriate image by recognizing the object not only from the positional relationship in the three-dimensional space but also from the image data during shooting.

なお、1つ又は複数の処理装置(CPU)110は、メモリ130から、必要に応じて各モジュールを読み出して実行する。例えば、1つ又は複数の処理装置(CPU)110は、メモリ130に格納されているネットワーク通信モジュール132を実行することで、通信部を構成してもよい。また、1つ又は複数の処理装置(CPU)110は、メモリ130に格納されている画像処理モジュール136、誘導モジュール137、表示制御モジュール138をそれぞれ実行することで、画像処理部、誘導部、表示制御部を構成してもよい。 The one or more processing devices (CPUs) 110 read and execute each module from the memory 130 as needed. For example, one or more processing units (CPUs) 110 may configure a communication unit by executing the network communication module 132 stored in the memory 130. Further, one or a plurality of processing devices (CPUs) 110 execute the image processing module 136, the guidance module 137, and the display control module 138 stored in the memory 130, respectively, to execute the image processing unit, the guidance unit, and the display. A control unit may be configured.

他の実施形態において、画像処理モジュール136、誘導モジュール137、表示制御モジュール138は、ユーザ端末10のメモリ130に格納されるスタンドアロンアプリケーションであってもよい。スタンドアロンアプリケーションとしては、限定はされないが、画像処理アプリケーション、誘導アプリケーション、表示制御アプリケーションが挙げられる。さらに他の実施形態において、誘導モジュール137、表示制御モジュール138は別のアプリケーションへのアドオン又はプラグインであってもよい。 In another embodiment, the image processing module 136, the guidance module 137, and the display control module 138 may be a stand-alone application stored in the memory 130 of the user terminal 10. Stand-alone applications include, but are not limited to, image processing applications, guidance applications, and display control applications. In yet another embodiment, the guidance module 137 and the display control module 138 may be add-ons or plug-ins to another application.

上記に示した要素の各々は、先述の記憶装置の1つ又は複数に格納され得る。上記に示したモジュールの各々は、上述される機能を実行するための命令のセットに対応する。上記に示したモジュール又はプログラム(すなわち、命令のセット)は別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はないとともに、従ってこれらのモジュールの様々なサブセットは様々な実施形態で組み合わされるか、或いは再構成されてもよい。ある実施形態において、メモリ130は上記に示されるモジュール及びデータ構造のサブセットを格納し得る。さらには、メモリ130は上述されない追加的なモジュール及びデータ構造を格納し得る。 Each of the elements shown above may be stored in one or more of the aforementioned storage devices. Each of the modules shown above corresponds to a set of instructions for performing the functions described above. The modules or programs (ie, sets of instructions) shown above do not need to be implemented as separate software programs, procedures or modules, so various subsets of these modules may be combined or combined in different embodiments. Alternatively, it may be reconstructed. In certain embodiments, the memory 130 may store a subset of the modules and data structures shown above. In addition, memory 130 may store additional modules and data structures not described above.

図3は、実施形態に係るサーバ20の一例を示すブロック図である。サーバ20は典型的には、1つ又は複数の処理装置(CPU)210、1つ又は複数のネットワーク又は他の通信インタフェース220、メモリ230、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス270を含む。 FIG. 3 is a block diagram showing an example of the server 20 according to the embodiment. The server 20 typically has one or more processing units (CPUs) 210, one or more networks or other communication interfaces 220, memory 230, and one or more for interconnecting these components. Includes a plurality of communication buses 270.

サーバ20は、場合によりユーザインタフェース250を含んでもよく、これとしては、ディスプレイ装置(図示せず)、及びキーボード及び/又はマウス(又は他の何らかのポインティングデバイス等の入力装置。図示せず)を挙げることができる。 The server 20 may optionally include a user interface 250, including a display device (not shown) and an input device such as a keyboard and / or mouse (or some other pointing device, etc. not shown). be able to.

メモリ130は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。 The memory 130 is, for example, a high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid-state storage, and one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or It may be a non-volatile memory such as another non-volatile solid-state storage device.

また、メモリ230の他の例は、CPU210から遠隔に設置される1つ又は複数の記憶装置を挙げることができる。ある実施形態において、メモリ230は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。 Further, another example of the memory 230 may include one or a plurality of storage devices installed remotely from the CPU 210. In certain embodiments, the memory 230 stores the following programs, modules and data structures, or a subset thereof.

オペレーティングシステム231は、例えば、様々な基本的なシステムサービスを処理するとともにハードウェアを用いてタスクを実行するためのプロシージャを含む。 Operating system 231 includes, for example, procedures for processing various basic system services and performing tasks using hardware.

ネットワーク通信モジュール232は、例えば、サーバ20を他のコンピュータに、1つ又は複数の通信ネットワークインタフェース220及びインターネット、他の広域ネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ又は複数の通信ネットワークを介して接続するために使用される。 The network communication module 232 connects the server 20 to another computer, for example, one or more communication network interfaces 220 and one or more communication networks such as the Internet, other wide area networks, local area networks, and metropolitan area networks. Used to connect via.

管理データ233は、自転車30の利用状況に関する第1データと、ステーションの位置情報とを含む第2データとを含む。第1データは、例えば、自転車30を識別するためのIDや、情報コード40を識別するためのIDや、利用時間、利用開始位置、返却位置などを含んでもよい。第2データは、例えば、ステーションを識別するためのIDや、位置情報や、名称等を含んでもよい。管理データ233は、図4及び5を用いて後述する。 The management data 233 includes the first data regarding the usage status of the bicycle 30 and the second data including the position information of the station. The first data may include, for example, an ID for identifying the bicycle 30, an ID for identifying the information code 40, a usage time, a usage start position, a return position, and the like. The second data may include, for example, an ID for identifying the station, location information, a name, and the like. The management data 233 will be described later with reference to FIGS. 4 and 5.

管理モジュール234は、自転車30の利用を管理する処理を実行する。例えば、管理モジュール234は、各自転車30の鍵の開錠、施錠を管理し、各自転車30の位置情報を管理し、各自転車30の利用時間を管理し、各ユーザの自転車30の利用状況を管理したりする。 The management module 234 executes a process of managing the use of the bicycle 30. For example, the management module 234 manages the unlocking and locking of the key of each bicycle 30, manages the position information of each bicycle 30, manages the usage time of each bicycle 30, and displays the usage status of each user's bicycle 30. Manage it.

管理モジュール234は、警告モジュール235を含む。警告モジュール235は、ユーザ端末10から送信された位置情報が所定のステーションの位置から所定範囲内にあるか否かを判定する。位置情報が所定範囲内になければ、警告情報をユーザ端末10に送信するように制御する。このとき、警告モジュール235は、警告情報に、カウンダウン情報を含めたり、近傍のステーションの情報を含めたり、ペナルティの情報を含めたりしてもよい。 The management module 234 includes a warning module 235. The warning module 235 determines whether or not the position information transmitted from the user terminal 10 is within a predetermined range from the position of the predetermined station. If the position information is not within the predetermined range, the warning information is controlled to be transmitted to the user terminal 10. At this time, the warning module 235 may include countdown information, information on nearby stations, and penalty information in the warning information.

警告モジュール235は、ユーザ端末10から再度送信された位置情報が所定のステーションの位置から所定範囲内にあるか否かを判定する。先の位置情報が所定範囲内になくても、後の位置情報が所定範囲内にあれば、警告情報を非表示にするよう制御する。例えば、警告モジュール235は、警告情報の送信を停止したりする。 The warning module 235 determines whether or not the position information retransmitted from the user terminal 10 is within a predetermined range from the position of the predetermined station. Even if the previous position information is not within the predetermined range, if the later position information is within the predetermined range, the warning information is controlled to be hidden. For example, the warning module 235 stops transmitting warning information.

なお、警告モジュール235は、ユーザ端末10から画像データを取得して、当該画像データに基づいて警告情報を送信するか否かを制御しても良い。例えば、警告モジュール235は、画像データを解析して、当該画像データが自転車とステーションとの画像を含んでいるか否かに基づいて正しく返却されたかを判断し、判断結果に基づいて警告情報を送信するか否かを制御することができる。また、警告モジュール235は、管理者が目視で画像データを確認できるように画像データを出力しても良い。 The warning module 235 may acquire image data from the user terminal 10 and control whether or not to transmit the warning information based on the image data. For example, the warning module 235 analyzes the image data, determines whether the image data is correctly returned based on whether or not the image data includes the image of the bicycle and the station, and transmits the warning information based on the determination result. It is possible to control whether or not to do so. Further, the warning module 235 may output image data so that the administrator can visually confirm the image data.

上記に示した要素の各々は先述される記憶装置の1つ又は複数に格納され得る。上記に示したモジュールの各々は、上述される機能を実行するための命令のセットに対応する。上記に示したモジュール又はプログラム(すなわち、命令のセット)は別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はないとともに、従ってこれらのモジュールの様々なサブセットが様々な実施形態で組み合わされるか、或いは再構成され得る。ある実施形態において、メモリ230は上記に示されるモジュール及びデータ構造のサブセットを格納し得る。さらには、メモリ230は上述されない追加的なモジュール及びデータ構造を格納し得る。1つ又は複数の処理装置(CPU)210は、メモリ230に格納されている管理モジュール234、警告モジュール235をそれぞれ実行することで、管理部、警告部を構成してもよい。 Each of the elements shown above may be stored in one or more of the storage devices described above. Each of the modules shown above corresponds to a set of instructions for performing the functions described above. The modules or programs (ie, sets of instructions) shown above do not need to be implemented as separate software programs, procedures or modules, and thus various subsets of these modules are combined or combined in various embodiments. Alternatively, it can be reconstructed. In certain embodiments, the memory 230 may store a subset of the modules and data structures shown above. In addition, memory 230 may store additional modules and data structures not described above. One or a plurality of processing units (CPUs) 210 may form a management unit and a warning unit by executing the management module 234 and the warning module 235 stored in the memory 230, respectively.

図3は「サーバ」を示すが、図3は、本明細書に記載される実施形態の構造的な概略としてよりも、サーバのセットに存在し得る様々な特徴についての説明が意図されている。実際には、当業者により認識されるとおり、別個に示される項目が組み合わされ得るであろうとともに、ある項目が別個にされ得るであろう。例えば、図3において別個に示される項目は単一サーバ上に実装され得るであろうとともに、単一の項目が1台又は複数のサーバにより実装され得るであろう。 Although FIG. 3 shows a “server”, FIG. 3 is intended to describe various features that may be present in a set of servers, rather than as a structural outline of the embodiments described herein. .. In practice, as will be appreciated by those skilled in the art, items shown separately could be combined and some items could be separated. For example, the items shown separately in FIG. 3 could be implemented on a single server, and a single item could be implemented by one or more servers.

<データ構造の一例>
図4は、実施形態に係る、ユーザ端末10により処理される処理データ134の一例を示す図である。図4に示す例では、処理データ134は、例えば、AR技術を用いて抽出された各特徴点や、各特徴点から生成された3次元空間モデルや、3次元空間内における撮像装置160の位置が推定された自己位置や、3次元空間内における情報コード40の位置の各情報を含む。なお、処理データ134は、さらにユーザ端末10が取得したセンサ情報(カメラの傾き等)を含んでも良い。
<Example of data structure>
FIG. 4 is a diagram showing an example of processing data 134 processed by the user terminal 10 according to the embodiment. In the example shown in FIG. 4, the processed data 134 is, for example, each feature point extracted by using AR technology, a three-dimensional space model generated from each feature point, and the position of the image pickup device 160 in the three-dimensional space. Includes each information of the estimated self-position and the position of the information code 40 in the three-dimensional space. The processed data 134 may further include sensor information (camera tilt, etc.) acquired by the user terminal 10.

画像処理モジュール136は、生成された3次元空間内において、認識モジュール135により認識された情報コード40の位置と、自己位置推定処理で推定された撮像装置160の位置とを対応付ける。これにより、誘導モジュール137は、この対応関係が所定の撮影条件を満たすか否かを判定することが可能になる。撮影条件は、例えば、情報コード40の位置と、自己位置推定処理で推定された撮像装置160の位置とが、所定距離離れていること、撮像装置160の画角内に、所定コード40を含むことなどである。 The image processing module 136 associates the position of the information code 40 recognized by the recognition module 135 with the position of the image pickup apparatus 160 estimated by the self-position estimation process in the generated three-dimensional space. This makes it possible for the guidance module 137 to determine whether or not this correspondence satisfies a predetermined imaging condition. The shooting conditions include, for example, that the position of the information code 40 and the position of the imaging device 160 estimated by the self-position estimation process are separated by a predetermined distance, and that the predetermined code 40 is included in the angle of view of the imaging device 160. And so on.

図5は、実施形態に係る管理データ233の第1データの一例を示す図である。図5に示す例では、第1データは、コードID、ステータス、位置情報1、位置情報2、利用時間等を含む。 FIG. 5 is a diagram showing an example of the first data of the management data 233 according to the embodiment. In the example shown in FIG. 5, the first data includes a code ID, a status, a position information 1, a position information 2, a usage time, and the like.

コードIDは、自転車30等の対象物を識別可能なIDであり、コードIDは、情報コード40を識別するためのIDである。ステータスは、開錠(Unlock)や施錠(Lock)を示す。位置情報1は、利用開始位置を示し、位置情報2は、返却位置を示す。利用時間は、シェアリングサービスの利用時間を示す。なお、第1データは、一例であって、各自転車30の現在のステータスと、利用履歴情報とが分けて管理されてもよい。例えば、現在のステータスには、現在位置とステータスとを含み、利用履歴情報には、利用開始位置、返却位置、利用時間を含む。 The code ID is an ID that can identify an object such as a bicycle 30, and the code ID is an ID for identifying the information code 40. The status indicates unlocking or locking. The position information 1 indicates the use start position, and the position information 2 indicates the return position. The usage time indicates the usage time of the sharing service. The first data is an example, and the current status of each bicycle 30 and the usage history information may be managed separately. For example, the current status includes the current position and the status, and the usage history information includes the usage start position, the return position, and the usage time.

なお、第1データは図5に示す構成に限定されない。例えば、第1データは利用テーブルとステータステーブルとに分割されて管理される構成でもよい。この場合、利用テーブルは、例えば利用しているユーザのIDと、コードIDと、位置情報1と、位置情報2と、利用時間とを含み、ステータステーブルは、コードIDと、ステータスと、自転車30の位置情報とを含んでも良い。 The first data is not limited to the configuration shown in FIG. For example, the first data may be divided into a usage table and a status table and managed. In this case, the usage table includes, for example, the ID of the user who is using the user, the code ID, the location information 1, the location information 2, and the usage time, and the status table includes the code ID, the status, and the bicycle 30. It may include the position information of.

図6は、実施形態に係る管理データ233の第2データの一例を示す図である。図6に示す例では、第2データは、ステーションID、ステーションの位置情報を含む。ステーションの位置情報は、自転車30が適切な位置に返却されたか否かに用いられてもよい。 FIG. 6 is a diagram showing an example of the second data of the management data 233 according to the embodiment. In the example shown in FIG. 6, the second data includes the station ID and the station position information. The location information of the station may be used to determine whether the bicycle 30 has been returned to the proper location.

上述したデータ構造は、あくまでも一例であって、この例に限られない。例えば管理データ233は、ユーザごとの自転車30の利用履歴情報を保持してもよい。 The above-mentioned data structure is merely an example, and is not limited to this example. For example, the management data 233 may hold the usage history information of the bicycle 30 for each user.

<動作説明>
次に、実施形態に係る情報処理システム1の動作について説明する。図7は、実施形態に係る情報処理システム1の処理の一例を示すフローチャートである。
<Operation explanation>
Next, the operation of the information processing system 1 according to the embodiment will be described. FIG. 7 is a flowchart showing an example of processing of the information processing system 1 according to the embodiment.

(ステップS102)
ユーザ端末10の認識モジュール135は、撮影中の画面から所定マーカ(例えば情報コード40)を写すように誘導する。例えば、認識モジュール135は、画面内に情報コードの枠を表示したりする。
(Step S102)
The recognition module 135 of the user terminal 10 guides the user terminal 10 to copy a predetermined marker (for example, the information code 40) from the screen during shooting. For example, the recognition module 135 displays an information code frame on the screen.

(ステップS104)
認識モジュール135は、撮影中の画像データに含まれる情報コード40を検出し、認識する。
(Step S104)
The recognition module 135 detects and recognizes the information code 40 included in the image data being photographed.

(ステップS106)
画像処理モジュール136は、撮影中の画像データに基づいて、周囲環境マッピング処理と、自己位置推定処理とを実行する。画像処理モジュール136は、認識された情報コード40の位置と、撮像装置160の位置とを対応付ける。誘導モジュール137は、この対応関係に基づいて、撮像装置160の位置又は向きが、情報コード40を含む対象物を撮影可能な位置又は向きに誘導する。このとき、表示制御モジュール138は、ARコンテンツを表示して誘導してもよい。
(Step S106)
The image processing module 136 executes the ambient environment mapping process and the self-position estimation process based on the image data during shooting. The image processing module 136 associates the position of the recognized information code 40 with the position of the image pickup apparatus 160. Based on this correspondence, the guidance module 137 guides the position or orientation of the image pickup apparatus 160 to a position or orientation in which the object including the information code 40 can be photographed. At this time, the display control module 138 may display and guide the AR content.

(ステップS108)
誘導モジュール137は、対応関係が所定の撮影条件を満たせば、撮影ボタンを有効化、又は画面上に表示制御する。
(Step S108)
The guidance module 137 activates the shooting button or controls the display on the screen if the correspondence relationship satisfies a predetermined shooting condition.

(ステップS110)
撮像装置160は、ユーザが撮影ボタンを押下したタイミングで撮像し、対象物を含む画像データを取得する。なお、撮像装置160は、所定の撮影条件が満たされたときに、自動で撮像を行ってもよい。
(Step S110)
The image pickup device 160 takes an image at the timing when the user presses the shooting button, and acquires image data including the object. The imaging device 160 may automatically perform imaging when a predetermined imaging condition is satisfied.

(ステップS112)
ネットワーク通信モジュール132は、誘導の結果、撮像装置160により撮像された画像データをサーバ20に送信する。これにより、適切な画像データを取得可能になり、サーバ20に適切な画像データを送信することができる。
(Step S112)
As a result of the guidance, the network communication module 132 transmits the image data captured by the image pickup device 160 to the server 20. As a result, appropriate image data can be acquired, and appropriate image data can be transmitted to the server 20.

図8は、実施形態に係る画像データの処理に関するシーケンス図である。図8に示す例では、誘導モジュール137の誘導により画像データが撮像された後に行われる処理を含む。 FIG. 8 is a sequence diagram relating to the processing of image data according to the embodiment. The example shown in FIG. 8 includes a process performed after the image data is captured by the guidance of the guidance module 137.

(ステップS202)
ユーザ端末10の誘導モジュール137は、撮像された画像データを取得する。
(Step S202)
The guidance module 137 of the user terminal 10 acquires the captured image data.

(ステップS204)
誘導モジュール137は、ユーザ端末10のGPS機能等を用いて現在の位置情報を取得する。
(ステップS206)
(Step S204)
The guidance module 137 acquires the current position information by using the GPS function or the like of the user terminal 10.
(Step S206)

ネットワーク通信モジュール132は、画像データと位置情報とをサーバ20に送信する。 The network communication module 132 transmits the image data and the location information to the server 20.

(ステップS208)
サーバ20の管理モジュール234は、取得された画像データと位置情報とに基づいて、自転車30の返却判定を行う。管理モジュール234は、例えば、画像データに基づいて、自転車30が適切な位置に返却されたかを判定したり、自転車30の故障等を判定したりする。また、管理モジュール234(警告モジュール235)は、取得された位置情報が、所定のステーションの位置から所定範囲内にあるか否かを判定する。ここで、判定結果が肯定(自転車30が所定位置にあると判定)であれば、ステップS210に進み、判定結果が否定(自転車30が所定位置にないと判定)であれば、ステップS220に進む。
(Step S208)
The management module 234 of the server 20 determines the return of the bicycle 30 based on the acquired image data and the position information. The management module 234 determines, for example, whether the bicycle 30 has been returned to an appropriate position based on the image data, or determines a failure of the bicycle 30 or the like. Further, the management module 234 (warning module 235) determines whether or not the acquired position information is within a predetermined range from the position of the predetermined station. Here, if the determination result is affirmative (determined that the bicycle 30 is in the predetermined position), the process proceeds to step S210, and if the determination result is negative (determined that the bicycle 30 is not in the predetermined position), the process proceeds to step S220. ..

(ステップS210)
警告モジュール235は、警告情報をユーザ端末10に送信する。警告情報は、例えば、カウントダウン情報や、ペナルティ情報や、近くの所定のステーションに返却することを促す情報を含んでもよい。
(Step S210)
The warning module 235 transmits warning information to the user terminal 10. The warning information may include, for example, countdown information, penalty information, or information prompting the user to return the information to a predetermined station nearby.

(ステップS212)
ユーザ端末10の表示制御モジュール138は、警告情報を画面に表示制御する。例えば、警告情報は、ポップアップ等で画面に通知されたり、アプリケーションにおいて画面を切り替えて表示制御されたりする。
(Step S212)
The display control module 138 of the user terminal 10 controls the display of warning information on the screen. For example, the warning information is notified on the screen by a pop-up or the like, or the display is controlled by switching the screen in the application.

(ステップS214)
ユーザは、所定のステーションに自転車30を返却し、再度自転車30を撮影したとする。このとき、ユーザ端末10の誘導モジュール137は、画像データを取得する。
(Step S214)
It is assumed that the user returns the bicycle 30 to a predetermined station and photographs the bicycle 30 again. At this time, the guidance module 137 of the user terminal 10 acquires the image data.

(ステップS216)
誘導モジュール137は、ユーザ端末10のGPS機能等を用いて現在の位置情報を取得する。
(Step S216)
The guidance module 137 acquires the current position information by using the GPS function or the like of the user terminal 10.

(ステップS218)
ネットワーク通信モジュール132は、画像データと位置情報とをサーバ20に送信する。この後、サーバ20の管理モジュール234が再度返却判定を行う。ここでは、判定結果が肯定であったとするが、仮に、判定結果が否定であった場合、再度ステップS210が実行される。
(Step S218)
The network communication module 132 transmits the image data and the location information to the server 20. After that, the management module 234 of the server 20 makes a return determination again. Here, it is assumed that the determination result is affirmative, but if the determination result is negative, step S210 is executed again.

(ステップS220)
サーバ20のネットワーク通信モジュール232は、返却のレポート情報をユーザ端末10に送信する。
(Step S220)
The network communication module 232 of the server 20 transmits the return report information to the user terminal 10.

(ステップS222)
ユーザ端末10の表示制御モジュール138は、返却のレポート情報を画面に表示制御する。例えば、レポート情報は、利用開始位置、返却位置、利用時間、費用等を含んでもよい。
(Step S222)
The display control module 138 of the user terminal 10 controls the display of the return report information on the screen. For example, the report information may include a usage start position, a return position, a usage time, a cost, and the like.

以上、本開示技術は、適切な画像データをサーバ20側に送信することで、シェアリングサービスにおける乗り物返却時の管理コストの増加を軽減させることが可能になる。また、本開示技術は、所定のマーカである情報コード40を読み取る処理から誘導を経て適切な画像データを取得することが可能になる。 As described above, the disclosed technology can reduce the increase in management cost when returning a vehicle in the sharing service by transmitting appropriate image data to the server 20 side. Further, the disclosed technology makes it possible to acquire appropriate image data from the process of reading the information code 40, which is a predetermined marker, through guidance.

<画面例>
次に、ユーザ端末10の画面に表示される例について説明する。図9は、実施形態に係る画面の遷移例を示す図である。図9に示す左上の画面は、情報コード40の撮影を誘導する画面例である。例えば、画面内に「QRコードを写してください」と表示される。
<Screen example>
Next, an example displayed on the screen of the user terminal 10 will be described. FIG. 9 is a diagram showing a transition example of the screen according to the embodiment. The upper left screen shown in FIG. 9 is an example of a screen that guides the shooting of the information code 40. For example, "Please copy the QR code" is displayed on the screen.

上部中央の画面は、情報コード40が認識され、ARコンテンツA10が画面に表示される画面例である。このARコンテンツA10が、撮像装置160の位置を誘導する情報である。この画面例では、ARコンテンツA10が画面内におさまっていないため、ユーザに対し、自転車30から距離をとるように誘導している。 The upper center screen is an example of a screen in which the information code 40 is recognized and the AR content A10 is displayed on the screen. The AR content A10 is information for guiding the position of the image pickup apparatus 160. In this screen example, since the AR content A10 does not fit in the screen, the user is guided to take a distance from the bicycle 30.

右上の画面は、ユーザが自転車30から離れる途中の画面例である。ユーザが自転車30から離れることで、ARコンテンツA10の全体が見えてきており、このARコンテンツA10は、もう少し自転車30から離れることを誘導している。 The screen on the upper right is an example of a screen while the user is leaving the bicycle 30. When the user moves away from the bicycle 30, the entire AR content A10 is visible, and the AR content A10 guides the user to move away from the bicycle 30 a little more.

右下の画面は、撮像装置160と自転車30との距離が所定距離離れたことで、撮影ボタンB10が有効化する画面例である。上部の画面例ではいずれも撮影ボタンB10は無効化されている。これにより、ユーザは、この位置で撮影すればよいことが容易に理解することができる。 The lower right screen is an example of a screen in which the shooting button B10 is activated when the distance between the image pickup device 160 and the bicycle 30 is a predetermined distance. In the upper screen example, the shooting button B10 is disabled. As a result, the user can easily understand that the image should be taken at this position.

下部中央の画面は、撮影により取得された画像データの送信を確認する画面例である。この確認画面に表示される「送信」をユーザが押下することで、誘導により撮影されて取得された画像データをサーバ20に送信することができる。 The screen in the lower center is an example of a screen for confirming the transmission of image data acquired by shooting. When the user presses "Send" displayed on the confirmation screen, the image data captured and acquired by the guidance can be transmitted to the server 20.

なお、ARコンテンツA10は、情報コード10と撮像装置160との位置関係に応じて変動される画像が好適であり、距離と向きとが変動される画像により表されるとよい。 The AR content A10 is preferably an image that fluctuates according to the positional relationship between the information code 10 and the image pickup apparatus 160, and may be represented by an image that fluctuates in distance and direction.

なお、開示技術は、上述した各実施形態に限定されるものではなく、開示技術の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記各実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。 The disclosed technology is not limited to each of the above-described embodiments, and can be implemented in various other forms within a range that does not deviate from the gist of the disclosed technology. For this reason, each of the above embodiments is merely an example in all respects and is not to be construed in a limited manner. For example, the above-mentioned processing steps can be arbitrarily changed in order or executed in parallel within a range that does not cause a contradiction in the processing contents.

本開示の各実施形態のプログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。 記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、限定でなく例として、ソフトウェアプログラムやコンピュータプログラムを含む。 The program of each embodiment of the present disclosure may be provided stored in a computer-readable storage medium. The storage medium can store the program in a "non-temporary tangible medium". Programs include, but are not limited to, software programs and computer programs as examples.

[変形例]
また、上述した各実施形態における変形例を以下に示す。
[Modification example]
Further, a modification of each of the above-described embodiments is shown below.

<変形例1>
変形例1では、上記実施形態において、撮像対象として、シェアリングサービスに利用される自転車30を例にしたが、所定のマーカを有するものであれば、シェアリングサービスに限らず、いずれのものでもよい。例えば、撮影の対象物は、撮像装置160の画角内に入るようなオブジェクトであればよく、例えば、家具、服飾品、文房具、電化製品、生活用品、車両などでもよい。また、所定の位置に配置されるモノであれば、本開示の技術は適用されうる。なお、変形例1でのシステム構成等は、実施形態の構成と同様である。
<Modification example 1>
In the first modification, in the above embodiment, the bicycle 30 used for the sharing service is taken as an example of the imaging target, but any one having a predetermined marker is not limited to the sharing service. Good. For example, the object to be photographed may be an object that falls within the angle of view of the image pickup apparatus 160, and may be, for example, furniture, clothing, stationery, electrical appliances, daily necessities, vehicles, and the like. Further, the technique of the present disclosure can be applied as long as the object is arranged at a predetermined position. The system configuration and the like in the first modification are the same as the configuration of the embodiment.

<変形例2>
変形例2では、上記実施形態において撮影対象は、自転車30だけを例にして説明したが、その他のものを撮影することを排除することを意図していない。例えば自転車30の場合、所定ステーションに設置されたポートと自転車30とが一緒に撮像されるように、撮影距離と向き(角度)とが予め撮影条件として設定されていてもよい。
<Modification 2>
In the second modification, the subject to be photographed in the above embodiment has been described by taking only the bicycle 30 as an example, but it is not intended to exclude photographing other objects. For example, in the case of the bicycle 30, the shooting distance and the direction (angle) may be set as shooting conditions in advance so that the port installed at the predetermined station and the bicycle 30 are imaged together.

1 情報処理システム
10、10A、10B 情報処理装置(ユーザ端末)
20、20A 情報処理装置(サーバ)
110、210 処理装置(CPU)
120、220 ネットワーク通信インタフェース
130、230 メモリ
131、231 オペレーティングシステム
132、232 ネットワーク通信モジュール
133 撮像データ
134 処理データ
135 認識モジュール
136 画像処理モジュール
137 誘導モジュール
138 表示制御モジュール
150 ユーザインタフェース
160 撮像装置
170 通信バス
233 管理データ
234 管理モジュール
235 警告モジュール
1 Information processing system 10, 10A, 10B Information processing device (user terminal)
20, 20A Information processing device (server)
110, 210 processing unit (CPU)
120, 220 Network communication interface 130, 230 Memory 131, 231 Operating system 132, 232 Network communication module 133 Imaging data 134 Processing data 135 Recognition module 136 Image processing module 137 Guidance module 138 Display control module 150 User interface 160 Imaging device 170 Communication bus 233 Management data 234 Management module 235 Warning module

Claims (12)

情報処理装置に含まれる1又は複数のプロセッサに、
撮影中の画像データから所定マーカを認識すること、
前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行すること、
前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、
前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導すること
を実行させるプログラム。
For one or more processors included in the information processing device
Recognizing a predetermined marker from the image data during shooting,
To execute the ambient environment mapping process for creating a three-dimensional space and the self-position estimation process for estimating the position of the imaging device in the three-dimensional space based on the image data during shooting.
Identifying the correspondence between the position of the predetermined marker and the position of the imaging device in the three-dimensional space.
A program that causes the position or orientation of the imaging device to guide an object including the predetermined marker to a position or orientation that can be photographed based on the correspondence.
前記1又は複数のプロセッサに、
前記撮影中の画像データに誘導情報を重畳して画面に表示制御することをさらに実行させる、請求項1に記載のプログラム。
To the one or more processors
The program according to claim 1, wherein the guidance information is superimposed on the image data during shooting to further execute display control on the screen.
前記表示制御することは、
前記対応関係に応じて変動する誘導情報を前記画像データに重畳することを含む、請求項2に記載のプログラム。
The display control is
The program according to claim 2, further comprising superimposing guidance information that fluctuates according to the correspondence relationship on the image data.
前記誘導することは、
前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに関する所定条件を満たす場合、前記撮像装置による撮影を許可することを含む、請求項1乃至3いずれか一項に記載のプログラム。
The induction is
Any one of claims 1 to 3, including permitting photography by the imaging device when the position or orientation of the imaging device satisfies a predetermined condition regarding a position or orientation in which an object including the predetermined marker can be photographed. The program described in the section.
前記1又は複数のプロセッサに、
前記撮像装置により撮像された、前記対象物を含む画像データを、他の情報処理装置に送信することをさらに実行させる、請求項4に記載のプログラム。
To the one or more processors
The program according to claim 4, wherein the image data including the object captured by the image pickup apparatus is further transmitted to another information processing apparatus.
前記送信することは、
前記所定マーカが認識された時に前記情報処理装置の第1位置情報を前記他の情報処理装置に送信すること、及び/又は
前記対象物を含む画像データが撮像された時に前記情報処理装置の第2位置情報を前記他の情報処理装置に送信することを含む、請求項5に記載のプログラム。
The transmission is
When the predetermined marker is recognized, the first position information of the information processing device is transmitted to the other information processing device, and / or when the image data including the object is imaged, the first position information of the information processing device is captured. 2. The program according to claim 5, which comprises transmitting location information to the other information processing apparatus.
前記1又は複数のプロセッサに、
前記他の情報処理装置により、前記第1位置情報が所定位置にないと判定された場合、警告情報を取得すること、
前記警告情報を画面に表示制御すること、をさらに実行させる請求項6に記載のプログラム。
To the one or more processors
When it is determined by the other information processing device that the first position information is not in the predetermined position, the warning information is acquired.
The program according to claim 6, further executing the display control of the warning information on the screen.
前記他の情報処理装置により、前記第2位置情報が前記所定位置にあると判定された場合、前記警告情報を非表示にするリクエスト情報を取得し、
前記リクエスト情報に応じて、前記警告情報を非表示にする、請求項7に記載のプログラム。
When the other information processing device determines that the second position information is in the predetermined position, the request information for hiding the warning information is acquired.
The program according to claim 7, which hides the warning information in response to the request information.
前記警告情報は、所定時間内に前記対象物を前記所定位置に移動させることを促す時間情報を含む、請求項7又は8に記載のプログラム。 The program according to claim 7 or 8, wherein the warning information includes time information for prompting the movement of the object to the predetermined position within a predetermined time. 前記1又は複数のプロセッサに、
前記画像データに基づき前記対象物を認識し、当該対象物が撮影条件を満たすか否かをさらに判定する、請求項1乃至9いずれか一項に記載のプログラム。
To the one or more processors
The program according to any one of claims 1 to 9, which recognizes the object based on the image data and further determines whether or not the object satisfies the photographing condition.
情報処理装置に含まれる1又は複数のプロセッサが、
撮影中の画像データから所定マーカを認識すること、
前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行すること、
前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、
前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導すること
を実行する情報処理方法。
One or more processors included in the information processing device
Recognizing a predetermined marker from the image data during shooting,
To execute the ambient environment mapping process for creating a three-dimensional space and the self-position estimation process for estimating the position of the imaging device in the three-dimensional space based on the image data during shooting.
Identifying the correspondence between the position of the predetermined marker and the position of the imaging device in the three-dimensional space.
An information processing method in which the position or orientation of the imaging device guides an object including the predetermined marker to a position or orientation in which an object can be photographed based on the correspondence.
1又は複数のプロセッサを含む情報処理装置であって、
前記1又は複数のプロセッサが、
撮影中の画像データから所定マーカを認識すること、
前記撮影中の画像データに基づいて、3次元空間を作成する周囲環境マッピング処理と、前記3次元空間内の撮像装置の位置を推定する自己位置推定処理とを実行すること、
前記3次元空間内における前記所定マーカの位置と前記撮像装置の位置との対応関係を特定すること、
前記対応関係に基づき、前記撮像装置の位置又は向きが、前記所定マーカを含む対象物を撮影可能な位置又は向きに誘導すること
を実行する情報処理装置。
An information processing device that includes one or more processors.
The one or more processors
Recognizing a predetermined marker from the image data during shooting,
To execute the ambient environment mapping process for creating a three-dimensional space and the self-position estimation process for estimating the position of the imaging device in the three-dimensional space based on the image data during shooting.
Identifying the correspondence between the position of the predetermined marker and the position of the imaging device in the three-dimensional space.
An information processing device that executes the position or orientation of the imaging device to guide an object including the predetermined marker to a position or orientation that can be photographed based on the correspondence.
JP2019161165A 2019-09-04 2019-09-04 Program, information processing method, and information processing device Active JP7360854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161165A JP7360854B2 (en) 2019-09-04 2019-09-04 Program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161165A JP7360854B2 (en) 2019-09-04 2019-09-04 Program, information processing method, and information processing device

Publications (2)

Publication Number Publication Date
JP2021039586A true JP2021039586A (en) 2021-03-11
JP7360854B2 JP7360854B2 (en) 2023-10-13

Family

ID=74847156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161165A Active JP7360854B2 (en) 2019-09-04 2019-09-04 Program, information processing method, and information processing device

Country Status (1)

Country Link
JP (1) JP7360854B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223599A (en) * 2011-05-31 2011-11-04 Casio Comput Co Ltd Photographing apparatus and program
JP2012160016A (en) * 2011-01-31 2012-08-23 Canon Marketing Japan Inc Vehicle management system, vehicle management server, vehicle management method, program and storage medium
JP2013200736A (en) * 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd Bicycle sharing system
JP2015082830A (en) * 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) * 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160016A (en) * 2011-01-31 2012-08-23 Canon Marketing Japan Inc Vehicle management system, vehicle management server, vehicle management method, program and storage medium
JP2011223599A (en) * 2011-05-31 2011-11-04 Casio Comput Co Ltd Photographing apparatus and program
JP2013200736A (en) * 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd Bicycle sharing system
JP2015082830A (en) * 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program
JP2015231101A (en) * 2014-06-04 2015-12-21 パイオニア株式会社 Imaging condition estimation apparatus and method, terminal device, computer program and recording medium

Also Published As

Publication number Publication date
JP7360854B2 (en) 2023-10-13

Similar Documents

Publication Publication Date Title
US11334687B2 (en) Systems and methods for authenticating photographic image data
US11017614B2 (en) Sharing system
US10223107B2 (en) Supporting the provision of services
CN112074797A (en) System and method for anchoring virtual objects to physical locations
US11587442B2 (en) System, program, and method for detecting information on a person from a video of an on-vehicle camera
US20150047024A1 (en) Surveillance camera renting service
US20240040352A1 (en) Information processing system, program, and information processing method
WO2015190009A1 (en) Object image information management server, object-related information management server, program, recording medium, and object image information management method
US11720224B2 (en) Data storage using image objects shown in a real-time view
US10147013B2 (en) Method and apparatus for crowdsourced vehicle identification
JP2011197728A (en) Shared vehicle management device
JP7360854B2 (en) Program, information processing method, and information processing device
US20100165133A1 (en) Imaging method, imaging device, and managing device for managing images captured
JP2016038682A (en) Information processing apparatus and control method of the same, server device and control method of the same, and computer program
JP2007166036A (en) Image generating program, image-generation support program and method for generating event image
US20230196260A1 (en) Vehicle, information processing system, non-transitory storage medium, and information processing device
KR101095414B1 (en) Control system and method for transportation machine using mobile apparatus
KR101144530B1 (en) Groupware viewer for smartphone and providing method thereof
JP2024007891A (en) vehicle
CN116866545A (en) Mapping relation adjustment method, equipment and storage medium of camera module
CN117115244A (en) Cloud repositioning method, device and storage medium
CN115904664A (en) Multi-cloud-domain task processing method and device, electronic equipment and storage medium
KR20190005053A (en) Image information providing system based on shooting location, device and method thereof
KR20090001622A (en) Method, service server and user terminal for creating ucc based on location information
KR20140056519A (en) System and method for image filing in a portable terminal

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7360854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533