JP6717491B1 - Camera state determination method, camera state determination device, shooting system, camera control method - Google Patents

Camera state determination method, camera state determination device, shooting system, camera control method Download PDF

Info

Publication number
JP6717491B1
JP6717491B1 JP2019192160A JP2019192160A JP6717491B1 JP 6717491 B1 JP6717491 B1 JP 6717491B1 JP 2019192160 A JP2019192160 A JP 2019192160A JP 2019192160 A JP2019192160 A JP 2019192160A JP 6717491 B1 JP6717491 B1 JP 6717491B1
Authority
JP
Japan
Prior art keywords
camera
shooting
moving image
information
client device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019192160A
Other languages
Japanese (ja)
Other versions
JP2021068985A (en
Inventor
宏輝 藤原
宏輝 藤原
裕 坂根
裕 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019192160A priority Critical patent/JP6717491B1/en
Application granted granted Critical
Publication of JP6717491B1 publication Critical patent/JP6717491B1/en
Publication of JP2021068985A publication Critical patent/JP2021068985A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】練習者が練習の様子の動画を容易に撮影可能な環境を提供する。【解決手段】 動画を撮影するように構成されたカメラのカメラ状態を判定するカメラ状態判定方法は、クライアント装置にマーカ画像を表示するステップを備え、マーカ画像には、動画の撮影に関する撮影情報が埋め込まれており、クライアント装置に表示されたマーカ画像に埋め込まれた撮影情報を認識するステップを備え、認識された撮影情報を参照して、カメラのカメラ状態を判定するステップを備え、カメラ状態に応じた表示制御を実行するステップを備える。【選択図】図3PROBLEM TO BE SOLVED: To provide an environment in which a practitioner can easily shoot a moving image of a practice. A camera state determination method for determining a camera state of a camera configured to shoot a moving image includes a step of displaying a marker image on a client device, and the marker image includes shooting information regarding shooting of the moving image. The step of recognizing the shooting information embedded and embedded in the marker image displayed on the client device is included, and the step of determining the camera state of the camera by referring to the recognized shooting information is provided. And a step of executing display control according to the above. [Selection diagram] Fig. 3

Description

本発明は、カメラ状態判定方法、カメラ状態判定装置、撮影システム、及び、カメラ制御方法に関する。 The present invention relates to a camera state determination method, a camera state determination device, a photographing system, and a camera control method.

介護、医療、スポーツなどの分野で、練習者による練習の様子の動画を撮影し、且つ、撮影された動画を利用して専門家が指導することにより、学習を効率化する取り組みが行われている。 In fields such as nursing care, medical care, and sports, video recordings of practice by practitioners are taken, and experts are instructed to use the video taken to make learning more efficient. There is.

練習者が、練習の様子を自ら撮影することは難しい場合がある。したがって、練習者が自ら練習の様子を撮影可能な技術が求められている。
例えば、特許文献1には、第三者の撮像装置で所望の被写体を撮影してもらい、その撮影により得られた画像を入手できるようにする技術が開示されている。
It may be difficult for the practitioner to take a picture of the practice. Therefore, there is a demand for a technique that enables the practitioner to take a picture of the practice.
For example, Patent Document 1 discloses a technique that allows a third-party imaging device to photograph a desired subject and obtain an image obtained by the photographing.

特開2013−165481号公報JP, 2013-165481, A

特許文献1の技術では、予め所望の被写体を登録する必要がある。
しかし、練習者が練習中の自身を被写体として登録したとしても、撮影を実行する撮像装置が練習の様子を適切に撮影できるとは限らない。例えば、所定の設置場所に固定された撮像装置に動画を撮影させる場合、設置場所と練習場所の位置関係によっては、動画の中に練習の様子が含まれないこともある。
In the technique of Patent Document 1, it is necessary to register a desired subject in advance.
However, even if the practitioner registers himself/herself as a subject, the imaging device that executes the shooting may not be able to appropriately shoot the practice. For example, when a moving image is captured by an image pickup device fixed to a predetermined installation place, the practice image may not be included in the moving image depending on the positional relationship between the installation place and the practice place.

本発明の目的は、練習者が練習の様子の動画を容易に撮影可能な環境を提供することである。 An object of the present invention is to provide an environment in which a practitioner can easily take a moving image of a practice.

本発明の一態様は、
動画を撮影するように構成されたカメラのカメラ状態を判定するカメラ状態判定方法であって、
クライアント装置にマーカ画像を表示するステップを備え、
前記マーカ画像には、動画の撮影に関する撮影情報が埋め込まれており、
前記クライアント装置に表示されたマーカ画像に埋め込まれた撮影情報を認識するステップを備え、
前記認識された撮影情報を参照して、前記カメラのカメラ状態を判定するステップを備え、
前記カメラ状態に応じた表示制御を実行するステップを備える、
カメラ状態判定方法である。
One aspect of the present invention is
A camera state determination method for determining a camera state of a camera configured to shoot a video, comprising:
A step of displaying the marker image on the client device,
In the marker image, shooting information regarding shooting of a moving image is embedded,
Recognizing the shooting information embedded in the marker image displayed on the client device,
A step of determining a camera state of the camera with reference to the recognized shooting information,
A step of performing display control according to the camera state,
This is a camera state determination method.

本発明によれば、練習者が練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the present invention, it is possible to provide an environment in which a practitioner can easily shoot a moving image of a practice.

第1実施形態の撮影システムの構成を示すブロック図である。It is a block diagram which shows the structure of the imaging system of 1st Embodiment. 図1の撮影システムの機能ブロック図である。It is a functional block diagram of the imaging system of FIG. 第1実施形態の概要の説明図である。It is an explanatory view of the outline of a 1st embodiment. 第1実施形態の撮影情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the photography information database of 1st Embodiment. 第1実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of 1st Embodiment. 第1実施形態の動画ファイル情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the moving image file information database of 1st Embodiment. 第1実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of the first embodiment. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 第2実施形態の概要の説明図である。It is explanatory drawing of the outline of 2nd Embodiment. 第2実施形態の撮影機材情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the imaging equipment information database of 2nd Embodiment. 第2実施形態の撮影情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the imaging information database of 2nd Embodiment. 第2実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of the second embodiment. 第3実施形態の概要の説明図である。It is explanatory drawing of the outline of 3rd Embodiment. 第3実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of 3rd Embodiment. 図16の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed in the information processing of FIG. 第4実施形態の概要の説明図である。It is explanatory drawing of the outline of 4th Embodiment. 第4実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of a fourth embodiment. 図19の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed in the information processing of FIG. 第5実施形態の概要の説明図である。It is explanatory drawing of the outline of 5th Embodiment. 第5実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of a 5th embodiment. 第6実施形態の概要の説明図である。It is explanatory drawing of the outline of 6th Embodiment. 第6実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of 6th Embodiment. 図24の情報処理において表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed in the information processing of FIG.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawings for describing the embodiments, the same components are designated by the same reference symbols in principle, and repeated description thereof will be omitted.

(1)第1実施形態
第1実施形態を説明する。
(1) First Embodiment A first embodiment will be described.

(1−1)撮影システム1の構成
第1実施形態の撮影システムの構成を説明する。図1は、第1実施形態の撮影システムの構成を示すブロック図である。図2は、図1の撮影システムの機能ブロック図である。
(1-1) Configuration of Imaging System 1 The configuration of the imaging system of the first embodiment will be described. FIG. 1 is a block diagram showing the configuration of the image capturing system of the first embodiment. FIG. 2 is a functional block diagram of the image capturing system of FIG.

図1に示すように、撮影システム1は、クライアント装置10と、撮影装置20と、サーバ30とを備える。
クライアント装置10、撮影装置20、及び、サーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the image capturing system 1 includes a client device 10, an image capturing device 20, and a server 30.
The client device 10, the image capturing device 20, and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、撮影装置20及びサーバ30にリクエストを送信するコンピュータ(「情報処理装置」の一例)である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is a computer (an example of an “information processing device”) that transmits a request to the image capturing device 20 and the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

撮影装置20は、クライアント装置10から送信されたリクエストに応じた情報処理を実行するコンピュータ(「カメラ状態判定装置」の一例)である。 The imaging device 20 is a computer (an example of a “camera state determination device”) that executes information processing in response to a request transmitted from the client device 10.

サーバ30は、クライアント装置10又は撮影装置20から送信されたリクエストに応じた情報処理を実行するコンピュータである。サーバ30は、例えば、ウェブサーバである。 The server 30 is a computer that executes information processing according to a request transmitted from the client device 10 or the photographing device 20. The server 30 is, for example, a web server.

(1−1−1)クライアント装置の構成
クライアント装置10の構成を説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、ディスプレイ16と、を備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, a communication interface 14, a camera 15, and a display 16.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、撮影アプリケーション)のプログラム
The programs include, for example, the following programs.
-OS (Operating System) program-Application (for example, shooting application) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referred to in information processing-Data obtained by executing information processing (that is, execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、これらの組み合わせである。 The processor 12 is configured to realize the function of the client device 10 by activating a program stored in the storage device 11. The processor 12 is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、カメラ15を含む。
出力デバイスは、例えば、ディスプレイ16である。
The input/output interface 13 is configured to acquire a user instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof. The input device also includes the camera 15.
The output device is, for example, the display 16.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.

カメラ15は、動画を撮影するように構成される。例えば、カメラ15は、ユーザの指示に応じて動画を撮影し、且つ、当該動画を記憶装置21に記憶する。 The camera 15 is configured to capture a moving image. For example, the camera 15 shoots a moving image in accordance with a user's instruction and stores the moving image in the storage device 21.

ディスプレイ16は、プロセッサ12によって生成された画像を表示するように構成される。 The display 16 is configured to display the image generated by the processor 12.

(1−1−2)撮影装置の構成
撮影装置20の構成を説明する。
図2に示すように、撮影装置20は、記憶装置21と、プロセッサ22と、入出力インタフェース23と、通信インタフェース24と、カメラ25と、ディスプレイ26と、を備える。
(1-1-2) Configuration of Imaging Device The configuration of the imaging device 20 will be described.
As shown in FIG. 2, the imaging device 20 includes a storage device 21, a processor 22, an input/output interface 23, a communication interface 24, a camera 25, and a display 26.

記憶装置21は、プログラム及びデータを記憶するように構成される。記憶装置21は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 21 is configured to store programs and data. The storage device 21 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、カメラ状態判定アプリケーション)のプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing (for example, camera status determination application) program

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referred to in information processing-Data obtained by executing information processing (that is, execution result of information processing)

プロセッサ22は、記憶装置21に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ22は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 22 is configured to realize the function of the client device 10 by activating a program stored in the storage device 21. The processor 22 is, for example, a CPU, ASIC, FPGA, or a combination thereof.

入出力インタフェース23は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、カメラ25を含む。
出力デバイスは、例えば、ディスプレイ26である。
The input/output interface 23 is configured to acquire a user instruction from an input device connected to the client apparatus 10 and output information to an output device connected to the client apparatus 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof. The input device also includes a camera 25.
The output device is, for example, the display 26.

通信インタフェース24は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 24 is configured to control communication between the client device 10 and the server 30.

カメラ25は、動画を撮影するように構成される。例えば、カメラ25は、常時、動画を撮影し、且つ、当該動画を記憶装置21に記憶する。 The camera 25 is configured to capture a moving image. For example, the camera 25 always shoots a moving image and stores the moving image in the storage device 21.

ディスプレイ26は、プロセッサ22によって生成された画像を表示するように構成される。 The display 26 is configured to display the image generated by the processor 22.

(1−1−3)サーバの構成
サーバ30の構成を説明する。
(1-1-3) Server Configuration The configuration of the server 30 will be described.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Database referenced in information processing ・Results of information processing execution

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 32 is configured to realize the function of the server 30 by activating a program stored in the storage device 31. The processor 32 is, for example, a CPU, ASIC, FPGA, or a combination thereof.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(1−2)第1実施形態の概要
第1実施形態の概要を説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Outline of First Embodiment An outline of the first embodiment will be described. FIG. 3 is an explanatory diagram of the outline of the first embodiment.

図3に示すように、第1実施形態は、動画を撮影するように構成された撮影装置20の状態(以下「カメラ状態」という)を判定する技術に関する。
クライアント装置10は、マーカ画像Mを表示する。マーカ画像Mには、撮影装置20に撮影させる動画の撮影に関する種別を示す撮影情報が埋め込まれている。
ユーザUがクライアント装置10に表示されたマーカ画像Mを撮影装置20のカメラ25に撮影させると、撮影装置20は、マーカ画像Mに埋め込まれた撮影情報を認識する。
撮影装置20は、認識された撮影情報を参照して、カメラ25のカメラ状態を判定する。
撮影装置20は、カメラ状態に応じた表示制御を実行する。
クライアント装置10は、表示制御の実行結果に応じた画像を表示する。
As shown in FIG. 3, the first embodiment relates to a technique of determining a state (hereinafter, referred to as “camera state”) of an image capturing device 20 configured to capture a moving image.
The client device 10 displays the marker image M. In the marker image M, shooting information indicating the type of shooting a moving image to be shot by the shooting device 20 is embedded.
When the user U causes the camera 25 of the photographing device 20 to photograph the marker image M displayed on the client device 10, the photographing device 20 recognizes the photographing information embedded in the marker image M.
The image capturing apparatus 20 determines the camera state of the camera 25 by referring to the recognized image capturing information.
The imaging device 20 executes display control according to the camera state.
The client device 10 displays an image according to the execution result of the display control.

(1−3)データベース
第1実施形態のデータベースを説明する。
(1-3) Database The database of the first embodiment will be described.

(1−3−1)撮影情報データベース
第1実施形態の撮影情報データベースを説明する。図4は、第1実施形態の撮影情報データベースのデータ構造を示す図である。
(1-3-1) Photographing Information Database The photographing information database of the first embodiment will be described. FIG. 4 is a diagram showing a data structure of the photographing information database according to the first embodiment.

図4の撮影情報データベースは、記憶装置21及び31の少なくとも1つに記憶される。
撮影情報データベースには、動画の撮影に関する撮影情報が格納されている。
撮影情報データベースは、「動画種別ID」フィールドと、「動画名」フィールドと、「撮影条件」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The shooting information database of FIG. 4 is stored in at least one of the storage devices 21 and 31.
The shooting information database stores shooting information regarding shooting of moving images.
The shooting information database includes a “moving picture type ID” field, a “moving picture name” field, and a “shooting condition” field. The fields are associated with each other.

「動画種別ID」フィールドには、動画種別識別情報が格納される。動画種別識別情報は、動画種別を識別する情報である。 Video type identification information is stored in the “video type ID” field. The moving image type identification information is information for identifying the moving image type.

「動画名」フィールドには、動画名に関する情報(例えば、テキスト)が格納される。動画名は、例えば、以下の名称を含む。
・介護の作業名(一例として、手洗い、立ち上がり介助、又は、歩行介助)
・スポーツの動作名(一例として、ゴルフスイング、走行、歩行、又は、トレーニングフォーム)
Information (for example, text) related to the moving image name is stored in the “moving image name” field. The moving image name includes, for example, the following names.
・Nursing work name (for example, hand washing, standing up assistance, or walking assistance)
・Sport motion name (as an example, golf swing, running, walking, or training form)

「撮影条件」フィールドには、撮影条件情報が格納される。撮影条件情報は、動画の撮影条件に関する情報である。撮影条件は、例えば、以下の少なくとも1つを含む。
・フレームレート
・解像度
・同時撮影台数
・画角
・アングル
・ISO感度
・ホワイトバランス
Shooting condition information is stored in the “shooting condition” field. The shooting condition information is information about shooting conditions for moving images. The shooting conditions include, for example, at least one of the following.
・Frame rate ・Resolution ・Simultaneous shooting number ・View angle ・Angle ・ISO sensitivity ・White balance

(1−3−2)ユーザ情報データベース
第1実施形態のユーザ情報データベースを説明する。図5は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-2) User Information Database The user information database of the first embodiment will be described. FIG. 5 is a diagram showing a data structure of the user information database of the first embodiment.

図5のユーザ情報データベースは、記憶装置21及び31の少なくとも1つに記憶される。
ユーザ情報データベースには、ユーザUに関するユーザ情報が格納されている。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「クライアントID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The user information database of FIG. 5 is stored in at least one of the storage devices 21 and 31.
User information regarding the user U is stored in the user information database.
The user information database includes a "user ID" field, a "user name" field, a "user attribute" field, and a "client ID" field. The fields are associated with each other.

「ユーザID」フィールドには、ユーザ識別情報が格納される。ユーザ識別情報は、ユーザUを識別する情報である。 User identification information is stored in the “user ID” field. The user identification information is information that identifies the user U.

「ユーザ名」フィールドには、ユーザUの名称に関する情報(例えば、テキスト)が格納される。 Information (for example, text) related to the name of the user U is stored in the “user name” field.

「ユーザ属性」フィールドには、ユーザUの属性に関するユーザ属性情報が格納される。ユーザUの属性は、以下の少なくとも1つを含む。
・性別
・年齢
・役職
・資格
・住所
・電話番号
・メールアドレス
User attribute information regarding the attribute of the user U is stored in the “user attribute” field. The attributes of the user U include at least one of the following.
・Gender ・Age ・Title ・Qualification ・Address ・Phone number ・Email address

「クライアントID」フィールドには、クライアント識別情報が格納される。クライアント識別情報は、ユーザ識別情報に対応するユーザUが使用するクライアント装置10を識別する情報である。 Client identification information is stored in the “client ID” field. The client identification information is information that identifies the client device 10 used by the user U corresponding to the user identification information.

(1−3−3)動画ファイル情報データベース
第1実施形態の動画ファイル情報データベースを説明する。図6は、第1実施形態の動画ファイル情報データベースのデータ構造を示す図である。
(1-3-3) Movie File Information Database The movie file information database of the first embodiment will be described. FIG. 6 is a diagram showing a data structure of the moving image file information database according to the first embodiment.

図6の動画ファイル情報データベースは、記憶装置31に記憶される。
動画ファイル情報データベースには、動画ファイルに関する動画ファイル情報が格納されている。
動画ファイル情報データベースは、「ファイルID」フィールドと、「動画ファイル」フィールドと、「撮影機材ID」フィールドと、「撮影機材名」フィールドと、「撮影日時」フィールドと、「撮影場所」フィールドと、を含む。各フィールドは、互いに関連付けられている。
動画ファイル情報データベースは、ユーザ識別情報に関連付けられる。
The moving image file information database of FIG. 6 is stored in the storage device 31.
The movie file information database stores movie file information regarding movie files.
The moving image file information database includes a “file ID” field, a “moving image file” field, a “shooting equipment ID” field, a “shooting equipment name” field, a “shooting date” field, and a “shooting location” field. including. The fields are associated with each other.
The moving image file information database is associated with the user identification information.

「動画ファイルID」フィールドには、動画ファイル識別情報が格納される。動画ファイル識別情報は、動画ファイルを識別する情報(例えば、ファイル名)である。 Video file identification information is stored in the "video file ID" field. The moving image file identification information is information (for example, a file name) that identifies a moving image file.

「動画ファイル」フィールドには、動画ファイルが格納される。 A moving image file is stored in the “moving image file” field.

「撮影機材ID」フィールドには、撮影機材識別情報が格納される。撮影機材識別情報は、動画ファイルに対応する動画を撮影した撮影機材(例えば、撮影装置20)を識別する情報である。 The "photographic equipment ID" field stores the photography equipment identification information. The photographing equipment identification information is information for identifying the photographing equipment (for example, the photographing device 20) that photographed the moving image corresponding to the moving image file.

「撮影機材名」フィールドには、撮影機材(例えば、撮影装置20)の名称に関する情報(例えば、テキスト)が格納される。 In the “imaging equipment name” field, information (eg, text) related to the name of the imaging equipment (eg, the imaging device 20) is stored.

「撮影日時」フィールドには、動画ファイルに対応する動画の撮影日時を示す情報が格納される。 Information indicating the shooting date and time of the moving image corresponding to the moving image file is stored in the “shooting date and time” field.

「撮影場所」フィールドには、動画ファイルに対応する動画の撮影場所に関する撮影場所情報が格納される。 In the "shooting location" field, shooting location information regarding the shooting location of the moving image corresponding to the moving image file is stored.

(1−4)情報処理
第1実施形態の情報処理を説明する。図7は、第1実施形態の情報処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。図9は、図7の情報処理において表示される画面例を示す図である。図10は、図7の情報処理において表示される画面例を示す図である。
(1-4) Information processing The information processing of the first embodiment will be described. FIG. 7 is a sequence diagram of information processing of the first embodiment. FIG. 8 is a diagram showing an example of a screen displayed in the information processing of FIG. FIG. 9 is a diagram showing an example of a screen displayed in the information processing of FIG. FIG. 10 is a diagram showing an example of a screen displayed in the information processing of FIG.

撮影装置20は、図7の情報処理のバックグラウンドで、常時撮影処理を実行する。
具体的には、カメラ25は、動画を撮影する。
プロセッサ22は、カメラ25によって撮影された動画を記憶装置21に記憶する。
The image capturing device 20 constantly executes the image capturing process in the background of the information processing of FIG. 7.
Specifically, the camera 25 shoots a moving image.
The processor 22 stores the moving image captured by the camera 25 in the storage device 21.

図7に示すように、クライアント装置10は、撮影情報の指定の受付(S111)を実行する。
具体的には、ユーザUが、自身のユーザ識別情報を用いて所定のアプリケーションを起動すると、プロセッサ12は、画面P10(図8)をディスプレイ16に表示する。
As shown in FIG. 7, the client device 10 accepts designation of shooting information (S111).
Specifically, when the user U activates a predetermined application using his or her user identification information, the processor 12 displays the screen P10 (FIG. 8) on the display 16.

画面P10は、操作オブジェクトB10a〜B10cを含む。
操作オブジェクトB10aは、動画名「動画A」を指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB10aには、動画名「動画A」に対応する撮影情報(例えば、動画種別識別情報)が割り当てられる。
操作オブジェクトB10bは、動画名「動画B」を指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB10bには、動画名「動画B」に対応する撮影情報が割り当てられる。
操作オブジェクトB10cは、動画名「動画C」を指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB10cには、動画名「動画C」に対応する撮影情報が割り当てられる。
The screen P10 includes operation objects B10a to B10c.
The operation object B10a is an object that receives a user instruction for designating the moving picture name "moving picture A". The shooting information (for example, moving image type identification information) corresponding to the moving image name “moving image A” is assigned to the operation object B10a.
The operation object B10b is an object that receives a user instruction for designating the moving picture name "moving picture B". The shooting information corresponding to the moving image name “moving image B” is assigned to the operation object B10b.
The operation object B10c is an object that receives a user instruction for designating the moving picture name "moving picture C". The shooting information corresponding to the moving image name “moving image C” is assigned to the operation object B10c.

ステップS111の後、クライアント装置10は、マーカ画像の表示(S112)を実行する。
具体的には、ユーザUが操作オブジェクトB10aを操作すると、プロセッサ12は、ユーザUによって操作された操作オブジェクトB10aに割り当てられた撮影情報(以下「対象撮影情報」という)を特定する。
プロセッサ12は、マーカ画像M11を生成する。マーカ画像M11には、以下の情報が埋め込まれる。
・対象撮影情報(例えば、ユーザUによって操作された操作オブジェクトB10aに割り当てられた動画種別識別情報(以下「対象動画種別識別情報」という))
・ユーザUのユーザ識別情報(以下「対象ユーザ識別情報」という)
After step S111, the client device 10 displays the marker image (S112).
Specifically, when the user U operates the operation object B10a, the processor 12 identifies shooting information (hereinafter referred to as “target shooting information”) assigned to the operation object B10a operated by the user U.
The processor 12 generates the marker image M11. The following information is embedded in the marker image M11.
Target shooting information (for example, moving image type identification information assigned to the operation object B10a operated by the user U (hereinafter referred to as “target moving image type identification information”))
-User identification information of user U (hereinafter referred to as "target user identification information")

プロセッサ12は、マーカ画像M11を含む画面P11(図8)をディスプレイ16に表示する。
マーカ画像M11は、以下の何れか、又は、それらの組合せである。
・一次元コード画像
・二次元コード画像
・三次元コード画像
・図形パターン画像
・文字列の画像
The processor 12 displays the screen P11 (FIG. 8) including the marker image M11 on the display 16.
The marker image M11 is any of the following or a combination thereof.
・One-dimensional code image ・Two-dimensional code image ・Three-dimensional code image ・Figure pattern image ・Character string image

ステップS112の後、撮影装置20は、マーカ画像の撮影(S120)を実行する。
具体的には、ユーザUが、画面P11が表示されたディスプレイ16をカメラ25に向けると、カメラ25は、マーカ画像M11を含む画面P11の画像を撮影する。これにより、マーカ画像M11が撮影される。
After step S112, the imaging device 20 executes the marker image shooting (S120).
Specifically, when the user U points the display 16 on which the screen P11 is displayed toward the camera 25, the camera 25 captures an image of the screen P11 including the marker image M11. As a result, the marker image M11 is captured.

ステップS120の後、撮影装置20は、マーカ画像の読み取り(S121)を実行する。
具体的には、プロセッサ22は、カメラ25によって撮影された画像から、マーカ画像M11に埋め込まれた対象撮影情報(例えば、対象動画種別識別情報)及び対象ユーザ識別情報を特定する。
After step S120, the imaging device 20 reads the marker image (S121).
Specifically, the processor 22 identifies the target shooting information (for example, the target moving image type identification information) and the target user identification information embedded in the marker image M11 from the image captured by the camera 25.

ステップS121の後、撮影装置20は、カメラ状態の判定(S122)を実行する。
具体的には、プロセッサ22は、カメラ状態が撮影可能条件を満たすか否かを判定する。より具体的には、撮影情報データベース(図4)に対象動画識別情報が格納されている場合、撮影可能条件を満たす。プロセッサ22は、撮影情報データベースの「動画種別識別情報」フィールドを参照して、対象動画種別識別情報が格納されているか否かを判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されている場合、「撮影可能」と判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されていない場合、「撮影不可能」と判定する。
After step S121, the imaging device 20 executes the camera state determination (S122).
Specifically, the processor 22 determines whether or not the camera state satisfies the photographing enable condition. More specifically, when the target moving image identification information is stored in the shooting information database (FIG. 4), the shooting enable condition is satisfied. The processor 22 determines whether or not the target moving image type identification information is stored by referring to the “moving image type identification information” field of the shooting information database.
When the target moving image type information is stored in the shooting information database, the processor 22 determines that “shooting is possible”.
The processor 22 determines that “imaging is not possible” when the target moving image type information is not stored in the imaging information database.

ステップS123の後、撮影装置20は、表示制御(S123)を実行する。
具体的には、プロセッサ22は、ユーザ情報データベース(図5)を参照して、対象ユーザ識別情報に関連付けられたクライアント識別情報(以下「対象クライアント識別情報」という)を特定する。
プロセッサ22は、対象クライアント識別情報に対応するクライアント装置10に、表示制御の実行結果に応じた画像を表示させるための表示制御データを送信する。表示制御データは、ステップS123の判定結果に関する情報を含む。
After step S123, the imaging device 20 executes display control (S123).
Specifically, the processor 22 refers to the user information database (FIG. 5) to identify the client identification information (hereinafter referred to as “target client identification information”) associated with the target user identification information.
The processor 22 transmits the display control data for displaying the image according to the execution result of the display control to the client device 10 corresponding to the target client identification information. The display control data includes information regarding the determination result of step S123.

ステップS123の後、クライアント装置10は、判定結果の表示(S113)を実行する。
具体的には、プロセッサ12は、ステップS123で送信された表示制御データに含まれる判定結果に関する情報に応じた画面P12又はP13(図9)をディスプレイ16に表示する。
After step S123, the client device 10 displays the determination result (S113).
Specifically, the processor 12 displays on the display 16 the screen P12 or P13 (FIG. 9) corresponding to the information regarding the determination result included in the display control data transmitted in step S123.

画面P12は、判定結果「撮影可能」に対応する画面である。
画面P12は、判定結果「撮影可能」を示すメッセージと、操作オブジェクトB12と、を含む。
操作オブジェクトB12は、撮影開始タイミングを指定するためのユーザ指示を受け付けるオブジェクトである。
The screen P12 is a screen corresponding to the determination result “capable of photographing”.
The screen P12 includes a message indicating the determination result “capable of photographing” and the operation object B12.
The operation object B12 is an object that receives a user instruction for designating a shooting start timing.

画面P13は、判定結果「撮影不可能」に対応する画面である。
画面P13は、判定結果「撮影不可能」を示すメッセージを含む。
The screen P13 is a screen corresponding to the determination result “imaging is impossible”.
The screen P13 includes a message indicating that the determination result is “imaging is not possible”.

ステップS113の後、クライアント装置10は、撮影開始リクエスト(S114)を実行する。
具体的には、ユーザUが操作オブジェクトB12を操作すると、プロセッサ12は、撮影開始タイミングとして、ユーザUが操作オブジェクトB12を操作した時刻(以下「撮影開始時刻」という)を特定する。
プロセッサ12は、撮影装置20に撮影開始リクエストデータを送信する。撮影開始リクエストデータは、撮影開始時刻を含む。
After step S113, the client device 10 executes a shooting start request (S114).
Specifically, when the user U operates the operation object B12, the processor 12 specifies the time when the user U operates the operation object B12 (hereinafter referred to as “imaging start time”) as the imaging start timing.
The processor 12 transmits the shooting start request data to the shooting device 20. The shooting start request data includes a shooting start time.

ステップS114の後、撮影装置20は、動画ファイルの生成の開始(S124)を実行する。
具体的には、プロセッサ22は、カメラ25によって撮影された動画の動画ファイルの記憶装置21への書き込みを開始する。
After step S114, the imaging device 20 starts the generation of a moving image file (S124).
Specifically, the processor 22 starts writing the moving image file of the moving image captured by the camera 25 into the storage device 21.

ステップS114の後、クライアント装置10は、撮影終了リクエスト(S115)を実行する。
具体的には、ユーザUが操作オブジェクトB12を操作すると、プロセッサ12は、画面P14(図10)をディスプレイ16に表示する。
After step S114, the client device 10 executes a shooting end request (S115).
Specifically, when the user U operates the operation object B12, the processor 12 displays the screen P14 (FIG. 10) on the display 16.

画面P14は、操作オブジェクトB14を含む。
操作オブジェクトB14は、撮影終了タイミングを指定するためのユーザ指示を受け付ける。
The screen P14 includes the operation object B14.
The operation object B14 receives a user instruction for designating the shooting end timing.

ユーザUが操作オブジェクトB14を操作すると、プロセッサ12は、撮影終了タイミングとして、ユーザUが操作オブジェクトB14を操作した時刻(以下「撮影終了時刻」という)を特定する。
プロセッサ12は、撮影終了リクエストデータを撮影装置20に送信する。撮影終了リクエストデータは、撮影終了時刻を含む。
When the user U operates the operation object B14, the processor 12 identifies the time when the user U operates the operation object B14 (hereinafter referred to as “imaging end time”) as the imaging end timing.
The processor 12 transmits the shooting end request data to the shooting device 20. The shooting end request data includes a shooting end time.

ステップS115の後、撮影装置20は、動画ファイルの生成の終了(S125)を実行する。
具体的には、プロセッサ22は、カメラ25によって撮影された動画の動画ファイルの記憶装置21への書き込みを終了する。
After step S115, the imaging device 20 executes the end of generation of the moving image file (S125).
Specifically, the processor 22 finishes writing the moving image file of the moving image captured by the camera 25 into the storage device 21.

ステップS125の後、撮影装置20は、保存リクエスト(S126)を実行する。
具体的には、プロセッサ22は、保存リクエストデータをサーバ30に送信する。
保存リクエストデータは、以下の情報を含む。
・ステップS125で生成された動画ファイル
・対象ユーザ識別情報
・撮影装置20の撮影機材識別情報
・撮影装置20の名称に関する情報
・撮影装置20の位置に関する情報(以下「対象撮影場所情報」という)
・ステップS114で特定された撮影開始時刻
・ステップS115で特定された撮影終了時刻
After step S125, the imaging device 20 executes a save request (S126).
Specifically, the processor 22 sends the save request data to the server 30.
The save request data includes the following information.
-Video file generated in step S125-Target user identification information-Photographing equipment identification information of photographing device 20-Information regarding name of photographing device 20-Information regarding position of photographing device 20 (hereinafter referred to as "target photographing place information")
-The shooting start time specified in step S114-The shooting end time specified in step S115

ステップS126の後、サーバ30は、動画ファイルの保存(S131)を実行する。
具体的には、プロセッサ32は、保存リクエストデータに含まれる対象ユーザ識別情報に関連付けられた動画情報データベース(図6)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ファイルID」フィールド…新規の動画ファイル識別情報
・「動画ファイル」フィールド…保存リクエストデータに含まれる動画ファイル
・「撮影機材ID」フィールド…保存リクエストデータに含まれる撮影機材識別情報
・「撮影機材名」フィールド…保存リクエストデータに含まれる撮影装置20の名称に関する情報
・「撮影日時」フィールド…保存リクエストデータに含まれる撮影開始時刻及び撮影終了時刻
・「撮影場所」フィールド…保存リクエストデータに含まれる対象撮影場所情報
After step S126, the server 30 executes saving of the moving image file (S131).
Specifically, the processor 32 adds a new record to the moving image information database (FIG. 6) associated with the target user identification information included in the save request data. The following information is stored in each field of the new record.
-"File ID" field... New video file identification information-"Video file" field... Video file included in save request data-"Shooting equipment ID" field... Shooting equipment identification information included in save request data-"Shooting equipment""Name" field... Information about the name of the image capturing device 20 included in the save request data. "Shooting date/time" field... Shooting start time and shooting end time included in the save request data. "Shooting location" field... Included in the save request data. Target shooting location information

第1実施形態によれば、練習者が自身のクライアント装置10に表示されたマーカを撮影装置20に撮影させると、撮影装置20が練習の様子を撮影可能か否か(つまり、カメラ状態)が判定される。これにより、練習者が練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the first embodiment, when the practitioner causes the photographing device 20 to photograph the marker displayed on the client device 10, it is determined whether the photographing device 20 can photograph the practice (that is, the camera state). To be judged. This makes it possible to provide an environment in which the practitioner can easily take a video of the practice.

第1実施形態によれば、ユーザUは、クライアント装置10に表示された判定結果から、撮影装置20による自身の練習の様子の動画の撮影可否を容易に知ることができる。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the first embodiment, the user U can easily know from the determination result displayed on the client device 10 whether or not the moving image of the practice of the user by the imaging device 20 can be taken. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

特に、第1実施形態によれば、ユーザUは、撮影装置20に対して所望の動画の撮影可否を容易に問い合わせることができる。 In particular, according to the first embodiment, the user U can easily inquire of the photographing apparatus 20 about whether or not a desired moving image can be photographed.

また、第1実施形態によれば、ユーザUが、クライアント装置10から撮影開始指示及び撮影終了指示を与えるだけで、所望の動画の撮影が実行される。これにより、ユーザUは、練習の様子の動画を容易に撮影することができる。 Further, according to the first embodiment, the user U simply shoots a shooting start instruction and a shooting end instruction from the client device 10 to shoot a desired moving image. As a result, the user U can easily take a video of the practice.

また、第1実施形態によれば、ユーザUが、クライアント装置10に撮影開始指示及び撮影終了指示を与えるだけで、所望の動画の動画ファイルが保存される。これにより、ユーザUは、練習の様子の動画を容易に保存することができる。 Further, according to the first embodiment, the user U only saves the moving image file of the desired moving image by giving the shooting start instruction and the shooting end instruction to the client device 10. Accordingly, the user U can easily save the moving image of the practice.

また、第1実施形態によれば、所望の動画種別及び撮影条件の組合せに応じた動画を容易に撮影可能な環境を提供することができる。 Moreover, according to the first embodiment, it is possible to provide an environment in which a moving image can be easily captured in accordance with a desired combination of the moving image type and the capturing condition.

(2)第2実施形態
第2実施形態を説明する。第1実施形態では、撮影装置20がカメラ状態を判定する(つまり、カメラ状態判定装置として機能する)例を示した。第2実施形態では、サーバ30がカメラ状態を判定する(つまり、カメラ状態判定装置として機能する)例を示す。
なお、上述の実施形態と同様の説明は省略する。
(2) Second Embodiment A second embodiment will be described. In the first embodiment, an example has been shown in which the image capturing device 20 determines the camera state (that is, functions as a camera state determination device). In the second embodiment, an example is shown in which the server 30 determines the camera state (that is, functions as a camera state determination device).
The description similar to that of the above-described embodiment will be omitted.

(2−1)第2実施形態の概要
第2実施形態の概要を説明する。図11は、第2実施形態の概要の説明図である。
(2-1) Outline of Second Embodiment An outline of the second embodiment will be described. FIG. 11 is an explanatory diagram of the outline of the second embodiment.

図11に示すように、撮影システム1は、サーバ30と、カメラ40と、を備える。 As shown in FIG. 11, the imaging system 1 includes a server 30 and a camera 40.

カメラ40は、動画を撮影するように構成される。例えば、カメラ40は、常時、動画を撮影し、且つ、当該動画をサーバ30に送信する。カメラ40は、例えば、固定カメラ(一例として、壁に固定されたセキュリティカメラ)である。 The camera 40 is configured to capture a moving image. For example, the camera 40 always shoots a moving image and transmits the moving image to the server 30. The camera 40 is, for example, a fixed camera (as an example, a security camera fixed to a wall).

図11に示すように、第2実施形態は、動画を撮影するように構成されたカメラ40のカメラ状態を判定する技術に関する。
クライアント装置10は、マーカ画像Mを表示する。マーカ画像Mには、カメラ40に撮影させる動画の種別を示す撮影情報が埋め込まれている。
ユーザUがクライアント装置10に表示されたマーカ画像Mをカメラ40に撮影させると、カメラ40は、マーカ画像Mをサーバ30に送信する。
サーバ30は、マーカ画像Mに埋め込まれた撮影情報を認識する。
サーバ30は、認識された撮影情報を参照して、カメラ40のカメラ状態を判定する。
サーバ30は、カメラ状態に応じた表示制御を実行する。
As shown in FIG. 11, the second embodiment relates to a technique of determining a camera state of a camera 40 configured to shoot a moving image.
The client device 10 displays the marker image M. In the marker image M, shooting information indicating the type of moving image to be shot by the camera 40 is embedded.
When the user U causes the camera 40 to capture the marker image M displayed on the client device 10, the camera 40 transmits the marker image M to the server 30.
The server 30 recognizes the shooting information embedded in the marker image M.
The server 30 determines the camera state of the camera 40 by referring to the recognized shooting information.
The server 30 executes display control according to the camera state.

(2−2)データベース
第2実施形態のデータベースを説明する。
(2-2) Database The database of the second embodiment will be described.

(2−2−1)撮影機材情報データベース
第2実施形態の撮影機材情報データベースを説明する。図12は、第2実施形態の撮影機材情報データベースのデータ構造を示す図である。
(2-2-1) Imaging Equipment Information Database The imaging equipment information database of the second embodiment will be described. FIG. 12 is a diagram showing a data structure of the photographing equipment information database according to the second embodiment.

図12の撮影機材情報データベースは、記憶装置31に記憶される。
撮影機材情報データベースには、撮影機材に関する撮影機材情報が格納されている。
撮影機材情報データベースは、「撮影機材ID」フィールドと、「撮影機材名」フィールドと、「設置場所」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The imaging equipment information database of FIG. 12 is stored in the storage device 31.
The photography equipment information database stores photography equipment information regarding photography equipment.
The photographing equipment information database includes a “photographing equipment ID” field, a “photographing equipment name” field, and an “installation place” field. The fields are associated with each other.

「撮影機材ID」フィールドには、カメラ40の撮影機材識別情報が格納される。 The "photographic equipment ID" field stores the photography equipment identification information of the camera 40.

「撮影機材名」フィールドには、カメラ40の名称に関する情報が格納される。 Information regarding the name of the camera 40 is stored in the “photographic equipment name” field.

「設置場所」フィールドには、カメラ40の設置場所(例えば、住所)に関する情報が格納される。 The “installation location” field stores information about the installation location (for example, address) of the camera 40.

(2−2−2)撮影情報データベース
第2実施形態の撮影情報データベースを説明する。図13は、第2実施形態の撮影情報データベースのデータ構造を示す図である。
(2-2-2) Photographing Information Database The photographing information database of the second embodiment will be described. FIG. 13 is a diagram showing a data structure of the photographing information database according to the second embodiment.

図13の撮影情報データベースは、撮影機材識別情報に関連付けられている点において、第1実施形態(図4)と異なる。つまり、第2実施形態の撮影情報データベースは、カメラ40毎に設けられる。 The photographic information database of FIG. 13 differs from that of the first embodiment (FIG. 4) in that it is associated with photographic equipment identification information. That is, the shooting information database of the second embodiment is provided for each camera 40.

(2−3)情報処理
第2実施形態の情報処理を説明する。図14は、第2実施形態の情報処理のシーケンス図である。
(2-3) Information processing
Information processing of the second embodiment will be described. FIG. 14 is a sequence diagram of information processing of the second embodiment.

カメラ40は、図14の情報処理のバックグラウンドで、常時撮影処理を実行する。
具体的には、カメラ40は、動画を撮影し、且つ、当該動画をサーバ30に送信する。
プロセッサ32は、カメラ40から送信された動画を記憶装置31に記憶する。
The camera 40 constantly executes the shooting process in the background of the information processing of FIG.
Specifically, the camera 40 shoots a moving image and transmits the moving image to the server 30.
The processor 32 stores the moving image transmitted from the camera 40 in the storage device 31.

図14に示すように、クライアント装置10は、第1実施形態(図7)と同様に、撮影情報の指定の受付(S111)〜マーカ画像の表示(S112)を実行する。 As shown in FIG. 14, the client device 10 executes the reception of designation of photographing information (S111) to the display of marker images (S112), as in the first embodiment (FIG. 7).

ステップS112の後、カメラ40は、第1実施形態(図7)と同様に、マーカ画像の撮影(S120)を実行する。 After step S112, the camera 40 captures a marker image (S120) as in the first embodiment (FIG. 7).

ステップS120の後、カメラ40は、マーカ画像の送信(S241)を実行する。
具体的には、プロセッサ22は、ステップS120で撮影されたマーカ画像M11及びカメラ40の撮影機材識別情報をサーバ30に送信する。
After step S120, the camera 40 executes the transmission of the marker image (S241).
Specifically, the processor 22 transmits the marker image M11 captured in step S120 and the photographing equipment identification information of the camera 40 to the server 30.

ステップS241の後、サーバ30は、マーカ画像の読み取り(S230)を実行する。
具体的には、プロセッサ32は、ステップS241でカメラ40から送信されたマーカ画像M11に埋め込まれた対象撮影情報(例えば、対象動画種別識別情報)及び対象ユーザ識別情報を特定する。
After step S241, the server 30 reads the marker image (S230).
Specifically, the processor 32 specifies the target shooting information (for example, target moving image type identification information) and the target user identification information embedded in the marker image M11 transmitted from the camera 40 in step S241.

ステップS230の後、サーバ30は、カメラ状態の判定(S231)を実行する。
具体的には、プロセッサ32は、ステップS241でカメラ40から送信された撮影機材識別情報に関連付けられた撮影情報データベース(図13)の「動画種別識別情報」フィールドを参照して、対象動画種別識別情報が格納されているか否かを判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されている場合、「撮影可能」と判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されていない場合、「撮影不可能」と判定する。
After step S230, the server 30 executes the camera state determination (S231).
Specifically, the processor 32 refers to the “moving image type identification information” field of the shooting information database (FIG. 13) associated with the shooting device identification information transmitted from the camera 40 in step S241 to identify the target moving image type. It is determined whether the information is stored.
When the target moving image type information is stored in the shooting information database, the processor 22 determines that “shooting is possible”.
The processor 22 determines that “imaging is not possible” when the target moving image type information is not stored in the imaging information database.

ステップS231の後、サーバ30は、表示制御(S232)を実行する。
具体的には、プロセッサ32は、ステップS231で撮影可能と判定した場合、ユーザ情報データベース(図5)を参照して、対象クライアント識別情報を特定する。
プロセッサ32は、撮影機材情報データベース(図12)を参照して、カメラ40から送信された撮影機材識別情報に関連付けられた「撮影機材名」フィールド及び「設置場所」フィールドの情報を特定する。
プロセッサ32は、対象クライアント識別情報に対応するクライアント装置10に表示制御データを送信する。表示制御データは、以下の情報を含む。
・撮影可能であることを示す通知
・特定された「撮影機材名」フィールドの情報(つまり、カメラ40の名称に関する情報)
・特定された「設置場所」フィールドの情報(つまり、対象撮影場所情報)
After step S231, the server 30 executes display control (S232).
Specifically, when the processor 32 determines in step S231 that shooting is possible, the processor 32 refers to the user information database (FIG. 5) and identifies the target client identification information.
The processor 32 refers to the photographic equipment information database (FIG. 12) and identifies the information of the “photographic equipment name” field and the “installation place” field associated with the photographic equipment identification information transmitted from the camera 40.
The processor 32 transmits the display control data to the client device 10 corresponding to the target client identification information. The display control data includes the following information.
-Notification indicating that shooting is possible-Information on the specified "shooting equipment name" field (that is, information on the name of the camera 40)
・Information in the specified "Installation location" field (that is, target shooting location information)

ステップS232の後、クライアント装置10は、第1実施形態(図7)と同様に、判定結果の表示(S113)を実行する。 After step S232, the client device 10 displays the determination result (S113) as in the first embodiment (FIG. 7).

ステップS113の後、クライアント装置10は、撮影開始リクエスト(S211)を実行する。
具体的には、ユーザUが操作オブジェクトB12を操作すると、プロセッサ12は、撮影開始タイミングとして撮影開始時刻を特定する。
プロセッサ12は、サーバ30に撮影開始リクエストデータを送信する。撮影開始リクエストデータは、撮影開始時刻を含む。
After step S113, the client device 10 executes a shooting start request (S211).
Specifically, when the user U operates the operation object B12, the processor 12 identifies the shooting start time as the shooting start timing.
The processor 12 transmits the shooting start request data to the server 30. The shooting start request data includes a shooting start time.

ステップS211の後、サーバ30は、動画ファイルの生成の開始(S233)を実行する。
具体的には、プロセッサ32は、カメラ40によって撮影された動画の動画ファイルの記憶装置31への書き込みを開始する。
After step S211, the server 30 starts generation of a moving image file (S233).
Specifically, the processor 32 starts writing the moving image file of the moving image captured by the camera 40 into the storage device 31.

ステップS211の後、クライアント装置10は、撮影終了リクエスト(S212)を実行する。
具体的には、プロセッサ12は、撮影終了リクエストデータをサーバ30に送信する。撮影終了リクエストデータは、撮影終了時刻を含む。
After step S211, the client device 10 executes a shooting end request (S212).
Specifically, the processor 12 transmits the shooting end request data to the server 30. The shooting end request data includes a shooting end time.

ステップS212の後、サーバ30は、動画ファイルの生成の終了(S234)を実行する。
具体的には、プロセッサ32は、カメラ40によって撮影された動画の動画ファイルの記憶装置31への書き込みを終了する。
After step S212, the server 30 ends the generation of the moving image file (S234).
Specifically, the processor 32 ends the writing of the moving image file of the moving image captured by the camera 40 into the storage device 31.

ステップS234の後、サーバ30は、動画ファイルの保存(S235)を実行する。
具体的には、プロセッサ32は、保存リクエストデータに含まれる対象ユーザ識別情報に関連付けられた動画情報データベース(図6)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ファイルID」フィールド…新規の動画ファイル識別情報
・「動画ファイル」フィールド…ステップS234で得られた動画ファイル
・「撮影機材ID」フィールド…ステップS241でカメラ40から送信された撮影機材識別情報
・「撮影機材名」フィールド…ステップS232で特定されたカメラ40の名称に関する情報
・「撮影日時」フィールド…ステップS233で特定された撮影開始時刻及びステップS234で特定された撮影終了時刻
・「撮影場所」フィールド…ステップS232で特定された対象撮影場所情報
After step S234, the server 30 saves the moving image file (S235).
Specifically, the processor 32 adds a new record to the moving image information database (FIG. 6) associated with the target user identification information included in the save request data. The following information is stored in each field of the new record.
"File ID" field... New moving image file identification information. "Movie file" field... Moving image file obtained in step S234. "Shooting equipment ID" field... Shooting equipment identification information transmitted from camera 40 in step S241. "Photographing equipment name" field... Information about the name of the camera 40 specified in step S232. "Photographing date/time" field... Photographing start time specified in step S233 and photographing end time specified in step S234. Field... Target shooting location information specified in step S232

なお、第2実施形態は、複数のカメラ40を含む場合にも適用可能である。 The second embodiment is also applicable to the case where a plurality of cameras 40 are included.

第2実施形態によれば、ユーザUは、クライアント装置10に表示された判定結果から、カメラ40による自身の練習の様子の動画の撮影可否を容易に知ることができる。これにより、カメラ状態を判定する機能を有していないカメラ40を用いて練習の様子の動画を撮影する場合であっても、ユーザUが当該動画を容易に撮影可能な環境を提供することができる。 According to the second embodiment, the user U can easily know, from the determination result displayed on the client device 10, whether or not the camera 40 can shoot a moving image of his/her practice. Accordingly, even when a moving image of practice is captured using the camera 40 that does not have the function of determining the camera state, it is possible to provide an environment in which the user U can easily capture the moving image. it can.

特に、第2実施形態によれば、ユーザUは、サーバ30に対して、カメラ40による所望の動画の撮影可否を容易に問い合わせることができる。 Particularly, according to the second embodiment, the user U can easily inquire of the server 30 whether or not a desired moving image can be taken by the camera 40.

(3)第3実施形態
第3実施形態を説明する。第1実施形態では、1つの撮影装置20を含む撮影システム1の例を示した。第3実施形態では、複数の撮影装置20を含む撮影システム1の例を示す。
なお、上述の実施形態と同様の説明は省略する。
(3) Third Embodiment A third embodiment will be described. In the first embodiment, an example of the image capturing system 1 including one image capturing device 20 is shown. In the third embodiment, an example of a photographing system 1 including a plurality of photographing devices 20 will be shown.
The description similar to that of the above-described embodiment will be omitted.

(3−1)第3実施形態の概要
第3実施形態の概要を説明する。図15は、第3実施形態の概要の説明図である。
(3-1) Outline of Third Embodiment An outline of the third embodiment will be described. FIG. 15 is an explanatory diagram of the outline of the third embodiment.

図15に示すように、第3実施形態は、複数の撮影装置(第1撮影装置20a〜第2撮影装置20b)のカメラ状態を判定する技術に関する。
クライアント装置10は、マーカ画像Mを表示する。マーカ画像Mには、第1撮影装置20a〜第2撮影装置20bに撮影させる動画の種別を示す撮影情報が埋め込まれている。
ユーザUがクライアント装置10に表示されたマーカ画像Mを第1撮影装置20aのカメラ25及び第2撮影装置20bのカメラ25に撮影させると、第1撮影装置20a〜第2撮影装置20bは、マーカ画像Mに埋め込まれた撮影情報を認識する。
第1撮影装置20aは、認識された撮影情報を参照して、第1撮影装置20aのカメラ25のカメラ状態を判定する。
第2撮影装置20bは、認識された撮影情報を参照して、第2撮影装置20bのカメラ25のカメラ状態を判定する。
第1撮影装置20a〜第2撮影装置20bは、カメラ状態に応じた表示制御を実行する。
As shown in FIG. 15, the third embodiment relates to a technique of determining camera states of a plurality of image capturing devices (first image capturing device 20a to second image capturing device 20b).
The client device 10 displays the marker image M. In the marker image M, shooting information indicating the type of moving image to be shot by the first shooting device 20a to the second shooting device 20b is embedded.
When the user U causes the camera 25 of the first photographing device 20a and the camera 25 of the second photographing device 20b to photograph the marker image M displayed on the client device 10, the first photographing device 20a to the second photographing device 20b are The shooting information embedded in the image M is recognized.
The first imaging device 20a refers to the recognized imaging information and determines the camera state of the camera 25 of the first imaging device 20a.
The second imaging device 20b refers to the recognized imaging information and determines the camera state of the camera 25 of the second imaging device 20b.
The first imaging device 20a and the second imaging device 20b execute display control according to the camera state.

(3−2)情報処理
第3実施形態の情報処理を説明する。図16は、第3実施形態の情報処理のシーケンス図である。図17は、図16の情報処理において表示される画面の例を示す図である。
(3-2) Information processing The information processing of the third embodiment will be described. FIG. 16 is a sequence diagram of information processing of the third embodiment. FIG. 17 is a diagram showing an example of a screen displayed in the information processing of FIG.

図16に示すように、クライアント装置10は、第1実施形態(図7)と同様に、撮影情報の指定の受付(S111)〜マーカ画像の表示(S112)を実行する。 As shown in FIG. 16, as in the first embodiment (FIG. 7 ), the client device 10 executes acceptance of designation of photographing information (S111) to display of marker image (S112).

ステップS112の後、第1撮影装置20a及び第2撮影装置20bは、それぞれ、第1実施形態(図7)と同様に、マーカ画像の撮影(S120)〜表示制御(S123)を実行する。 After step S112, the first image capturing device 20a and the second image capturing device 20b respectively perform the image capturing (S120) to the display control (S123) of the marker image, as in the first embodiment (FIG. 7).

ステップS123の後、クライアント装置10は、判定結果の表示(S311)を実行する。
具体的には、プロセッサ12は、ステップS123で送信された表示制御データに含まれる判定結果に関する情報に応じた画面P30(図17)又はP13(図9)をディスプレイ16に表示する。
After step S123, the client device 10 displays the determination result (S311).
Specifically, the processor 12 displays on the display 16 the screen P30 (FIG. 17) or P13 (FIG. 9) according to the information regarding the determination result included in the display control data transmitted in step S123.

画面P30は、判定結果「撮影可能」に対応する画面である。
画面P30は、判定結果「撮影可能」を示すメッセージと、操作オブジェクトB12及びB30a〜B30cと、を含む。
操作オブジェクトB30aは、動画を撮影させる撮影装置(以下「対象撮影装置」という)として、第1撮影装置20aを指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB30aには、第1撮影装置20aの撮影機材識別情報が埋め込まれている。ユーザUが操作オブジェクトB30aを操作すると、プロセッサ12は、操作オブジェクトB30aに埋め込まれた撮影機材識別情報を記憶装置11に記憶する。
操作オブジェクトB30bは、対象撮影装置として、第2撮影装置20bを指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB30bには、第2撮影装置20bの撮影機材識別情報が埋め込まれている。ユーザUが操作オブジェクトB30bを操作すると、プロセッサ12は、操作オブジェクトB30bに埋め込まれた撮影機材識別情報を記憶装置11に記憶する。
操作オブジェクトB30cは、対象撮影装置の候補を追加するためのユーザ指示を受け付けるオブジェクトである。ユーザUが操作オブジェクトB30cを操作すると、プロセッサ12は、ステップS111を実行する。
The screen P30 is a screen corresponding to the determination result “capable of photographing”.
The screen P30 includes a message indicating the determination result “capable of photographing” and the operation objects B12 and B30a to B30c.
The operation object B30a is an object that receives a user instruction for designating the first photographing device 20a as a photographing device (hereinafter, referred to as “target photographing device”) for photographing a moving image. Imaging object identification information of the first imaging device 20a is embedded in the operation object B30a. When the user U operates the operation object B30a, the processor 12 stores the photographing equipment identification information embedded in the operation object B30a in the storage device 11.
The operation object B30b is an object that receives a user instruction for designating the second imaging device 20b as the target imaging device. Imaging object identification information of the second imaging device 20b is embedded in the operation object B30b. When the user U operates the operation object B30b, the processor 12 stores the photographing equipment identification information embedded in the operation object B30b in the storage device 11.
The operation object B30c is an object that receives a user instruction for adding a candidate for the target imaging device. When the user U operates the operation object B30c, the processor 12 executes step S111.

ステップS311の後、クライアント装置10は、第1実施形態(図7)と同様に、撮影開始リクエスト(S114)〜撮影終了リクエスト(S115)を実行する。 After step S311, the client device 10 executes a shooting start request (S114) to a shooting end request (S115) as in the first embodiment (FIG. 7).

ステップS114の後、第1撮影装置20a〜第2撮影装置20bは、第1実施形態(図7)と同様に、動画ファイルの生成の開始(S124)を実行する。 After step S114, the first image capturing device 20a and the second image capturing device 20b execute the start of generation of a moving image file (S124), as in the first embodiment (FIG. 7).

ステップS115の後、第1撮影装置20a〜第2撮影装置20bは、第1実施形態(図7)と同様に、動画ファイルの生成の終了(S125)を実行する。 After step S115, the first photographing device 20a and the second photographing device 20b execute the end of the generation of the moving image file (S125), as in the first embodiment (FIG. 7).

ステップS125の後、ステップS311において対象撮影装置として指定された撮影装置20(例えば、第1撮影装置20a〜第2撮影装置20b)は、第1実施形態(図7)と同様に、保存リクエスト(S126)を実行する。 After step S125, the image capturing device 20 (for example, the first image capturing device 20a and the second image capturing device 20b) designated as the target image capturing device in step S311 has the same storage request (as in the first embodiment (FIG. 7)). Execute S126).

ステップS126の後、サーバ30は、第1実施形態(図7)と同様に、動画ファイルの保存(S131)を実行する。 After step S126, the server 30 executes the saving of the moving image file (S131) as in the first embodiment (FIG. 7).

なお、ユーザUが、画面P30において、操作オブジェクトB30a〜B30bの一部を操作した場合、複数の撮影装置20のうち、ユーザUによって操作された操作オブジェクトB30(例えば、操作オブジェクト30a)に割り当てられた操作識別情報に対応する撮影装置(例えば、第1撮影装置20a)のみが対象撮影装置として指定される。 When the user U operates a part of the operation objects B30a and B30b on the screen P30, the operation object B30 (for example, the operation object 30a) operated by the user U among the plurality of imaging devices 20 is assigned. Only the image capturing device (for example, the first image capturing device 20a) corresponding to the operation identification information is designated as the target image capturing device.

なお、第3実施形態は、第2実施形態と組合せ可能である。
具体的には、第2撮影装置20bがカメラ40であっても良い。
The third embodiment can be combined with the second embodiment.
Specifically, the second imaging device 20b may be the camera 40.

また、第3実施形態は、クライアント装置10が、撮影開始リクエストデータ及び撮影終了リクエストデータをサーバ30に送信する場合にも適用可能である。この場合、第1撮影装置20a〜第2撮影装置20bは、それぞれ、カメラ25によって撮影された動画をサーバ30に送信する。サーバ30は、ステップS115とステップS131の間に、第1撮影装置20a〜第2撮影装置20bから送信された動画に対して、ステップS124〜S125を実行する。この場合、ステップS126は省略される。 The third embodiment is also applicable to the case where the client device 10 transmits the shooting start request data and the shooting end request data to the server 30. In this case, each of the first photographing device 20a and the second photographing device 20b transmits the moving image photographed by the camera 25 to the server 30. The server 30 executes steps S124 to S125 for the moving image transmitted from the first image capturing device 20a to the second image capturing device 20b between step S115 and step S131. In this case, step S126 is omitted.

第3実施形態によれば、ユーザUは、クライアント装置10に表示された判定結果から、複数の撮影装置20による自身の練習の様子の動画の撮影可否を容易に知ることができる。これにより、複数の撮影装置20を用いて練習の様子の動画を撮影する場合であっても、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the third embodiment, the user U can easily know, from the determination result displayed on the client device 10, whether or not a moving image of the practice of oneself by the plurality of imaging devices 20 can be taken. This makes it possible to provide an environment in which the user U can easily shoot a moving image of a practice even when shooting a moving image of a practice using a plurality of imaging devices 20.

特に、第3実施形態によれば、ユーザUの所望の種別の動画を複数の撮影装置20に容易に撮影させることができる。 In particular, according to the third embodiment, it is possible to cause a plurality of image capturing devices 20 to easily capture a moving image of the type desired by the user U.

(4)第4実施形態
第4実施形態を説明する。第3実施形態では、複数の撮影装置20に対してカメラ状態の判定を要求する例を示した。第4実施形態では、1つの撮影装置20(例えば、第1撮影装置20a)に対して複数の撮影装置20(例えば、第1撮影装置20a及び第2撮影装置20b)のカメラ状態の判定を要求する例を示す。
なお、上述の実施形態と同様の説明は省略する。
(4) Fourth Embodiment A fourth embodiment will be described. In the third embodiment, an example has been shown in which the plurality of image capturing devices 20 are requested to determine the camera state. In the fourth embodiment, one camera device 20 (for example, the first camera device 20a) is requested to determine the camera states of the plurality of camera devices 20 (for example, the first camera device 20a and the second camera device 20b). Here is an example.
The description similar to that of the above-described embodiment will be omitted.

(4−1)第4実施形態の概要
第4実施形態の概要を説明する。図18は、第4実施形態の概要の説明図である。
(4-1) Outline of Fourth Embodiment An outline of the fourth embodiment will be described. FIG. 18 is an explanatory diagram of the outline of the fourth embodiment.

図18に示すように、第4実施形態は、複数の撮影装置(第1撮影装置20a〜第2撮影装置20b)のカメラ状態を判定する技術に関する。
クライアント装置10は、マーカ画像Mを表示する。マーカ画像Mには、第1撮影装置20a〜第2撮影装置20bに撮影させる動画の種別を示す撮影情報が埋め込まれている。
ユーザUがクライアント装置10に表示されたマーカ画像Mを第1撮影装置20aのカメラ25に撮影させると、第1撮影装置20aは、マーカ画像Mに埋め込まれた撮影情報を認識する。
第1撮影装置20aは、認識された撮影情報を参照して、第1撮影装置20aのカメラ25及び第2撮影装置20bのカメラ25のカメラ状態を判定する。
第1撮影装置20aは、カメラ状態に応じた表示制御を実行する。
As shown in FIG. 18, the fourth embodiment relates to a technique of determining camera states of a plurality of image capturing devices (first image capturing device 20a to second image capturing device 20b).
The client device 10 displays the marker image M. In the marker image M, shooting information indicating the type of moving image to be shot by the first shooting device 20a to the second shooting device 20b is embedded.
When the user U causes the camera 25 of the first photographing device 20a to photograph the marker image M displayed on the client device 10, the first photographing device 20a recognizes the photographing information embedded in the marker image M.
The first imaging device 20a refers to the recognized imaging information to determine the camera state of the camera 25 of the first imaging device 20a and the camera 25 of the second imaging device 20b.
The first imaging device 20a executes display control according to the camera state.

(4−2)情報処理
第4実施形態の情報処理を説明する。図19は、第4実施形態の情報処理のシーケンス図である。図20は、図19の情報処理において表示される画面の例を示す図である。
(4-2) Information processing Information processing of the fourth embodiment will be described. FIG. 19 is a sequence diagram of information processing of the fourth embodiment. FIG. 20 is a diagram showing an example of a screen displayed in the information processing of FIG.

図19に示すように、クライアント装置10は、第1実施形態(図7)と同様に、撮影情報の指定の受付(S111)を実行する。 As shown in FIG. 19, the client device 10 accepts designation of shooting information (S111) as in the first embodiment (FIG. 7).

ステップS111の後、クライアント装置10は、撮影機材の指定の受付(S411)を実行する。
具体的には、ユーザUが操作オブジェクトB10aを操作すると、プロセッサ12は、画面P40(図20)をディスプレイ16に表示する。
After step S111, the client device 10 receives the designation of the photographing equipment (S411).
Specifically, when the user U operates the operation object B10a, the processor 12 displays the screen P40 (FIG. 20) on the display 16.

画面P40は、操作オブジェクトB40a〜B40dを含む。
操作オブジェクトB40a〜B40dは、それぞれ、撮影機材を指定するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB40a〜B40dには、それぞれ、撮影機材識別情報が割り当てられている。
The screen P40 includes operation objects B40a to B40d.
Each of the operation objects B40a to B40d is an object that receives a user instruction for designating an imaging device. Imaging object identification information is assigned to each of the operation objects B40a to B40d.

例えば、ユーザUが操作オブジェクトB40a〜B40bを操作すると、プロセッサ12は、操作された操作オブジェクトB40a〜B40bに割り当てられた撮影機材識別情報を、対象撮影機材の撮影機材識別情報(以下「対象撮影機材識別情報」という)として特定する。 For example, when the user U operates the operation objects B40a to B40b, the processor 12 sets the photographic equipment identification information assigned to the operated operation objects B40a to B40b to the photographic equipment identification information of the target photographic equipment (hereinafter, “target photographic equipment”). "Identification information").

ステップS411の後、クライアント装置10は、マーカ画像の表示(S412)を実行する。
具体的には、ユーザUが操作オブジェクトB10aを操作すると、プロセッサ12は、マーカ画像M41を生成する。マーカ画像M41には、以下の情報が埋め込まれる。
・対象撮影情報
・ユーザ識別情報
・対象撮影機材識別情報
After step S411, the client device 10 displays the marker image (S412).
Specifically, when the user U operates the operation object B10a, the processor 12 generates the marker image M41. The following information is embedded in the marker image M41.
-Target shooting information-User identification information-Target shooting equipment identification information

プロセッサ12は、マーカ画像M11を含む画面P41(図20)をディスプレイ16に表示する。 The processor 12 displays the screen P41 (FIG. 20) including the marker image M11 on the display 16.

ステップS412の後、第1撮影装置20aは、第1実施形態(図7)と同様に、マーカ画像の撮影(S120)〜マーカ画像の読み取り(S121)を実行する。 After step S412, the first imaging device 20a executes the capturing of the marker image (S120) to the reading of the marker image (S121), as in the first embodiment (FIG. 7).

ステップS121の後、第1撮影装置20aは、問い合わせリクエスト(S421)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、カメラ25によって撮影された画像から、マーカ画像M41に埋め込まれた対象撮影情報(例えば、対象動画種別識別情報)及び対象ユーザ識別情報を特定する。
プロセッサ22は、問い合わせリクエストデータを第2撮影装置20bに送信する。問い合わせリクエストデータは、以下の情報を含む。
・対象撮影情報(例えば、対象動画種別識別情報)
・対象撮影機材識別情報
After step S121, the first imaging device 20a executes an inquiry request (S421).
Specifically, the processor 22 of the first imaging device 20a identifies the target shooting information (for example, the target moving image type identification information) and the target user identification information embedded in the marker image M41 from the image captured by the camera 25. To do.
The processor 22 transmits the inquiry request data to the second imaging device 20b. The inquiry request data includes the following information.
-Target shooting information (for example, target video type identification information)
・Identification information of target photographic equipment

ステップS421の後、第2撮影装置20bは、問い合わせレスポンス(S422)を実行する。
具体的には、第2撮影装置20bのプロセッサ22は、第2撮影装置20bの記憶装置21に記憶された撮影情報データベース(図4)の「動画種別識別情報」フィールドを参照して、問い合わせリクエストデータに含まれる対象動画種別識別情報が格納されているか否かを判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されている場合、「撮影可能」と判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されていない場合、「撮影不可能」と判定する。
After step S421, the second imaging device 20b executes an inquiry response (S422).
Specifically, the processor 22 of the second image capturing device 20b refers to the “moving image type identification information” field of the image capturing information database (FIG. 4) stored in the storage device 21 of the second image capturing device 20b, and makes an inquiry request. It is determined whether or not the target moving image type identification information included in the data is stored.
When the target moving image type information is stored in the shooting information database, the processor 22 determines that “shooting is possible”.
The processor 22 determines that “imaging is not possible” when the target moving image type information is not stored in the imaging information database.

プロセッサ22は、問い合わせレスポンスデータを第1撮影装置20aに送信する。問い合わせレスポンスデータは。判定結果(「撮影可能」又は「撮影不可能」)を示す通知を含む。 The processor 22 transmits the inquiry response data to the first imaging device 20a. Inquiry response data. It includes a notification indicating the determination result (“capture possible” or “capture impossible”).

ステップS422の後、第1撮影装置20aは、カメラ状態の判定(S423)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、問い合わせレスポンスデータの判定結果を記憶装置21に記憶する。
これにより、第2撮影装置20bについての判定結果が得られる。
After step S422, the first imaging device 20a executes camera state determination (S423).
Specifically, the processor 22 of the first imaging device 20a stores the determination result of the inquiry response data in the storage device 21.
As a result, the determination result for the second imaging device 20b is obtained.

プロセッサ22は、カメラ25によって撮影された画像から、マーカ画像M41に埋め込まれた対象撮影情報(例えば、対象動画種別識別情報)及び対象ユーザ識別情報を特定する。
プロセッサ22は、第1撮影装置20aの記憶装置21に記憶された撮影情報データベース(図4)の「動画種別識別情報」フィールドを参照して、対象動画種別識別情報が格納されているか否かを判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されている場合、「撮影可能」と判定する。
プロセッサ22は、撮影情報データベースに対象動画種別情報が格納されていない場合、「撮影不可能」と判定する。
これにより、第1撮影装置20aについての判定結果が得られる。
The processor 22 identifies the target shooting information (for example, the target moving image type identification information) and the target user identification information embedded in the marker image M41 from the image captured by the camera 25.
The processor 22 refers to the “moving picture type identification information” field of the shooting information database (FIG. 4) stored in the storage device 21 of the first shooting apparatus 20a to determine whether the target moving picture type identification information is stored. judge.
When the target moving image type information is stored in the shooting information database, the processor 22 determines that “shooting is possible”.
The processor 22 determines that “imaging is not possible” when the target moving image type information is not stored in the imaging information database.
As a result, the determination result for the first imaging device 20a is obtained.

ステップS423の後、第1撮影装置20aは、表示制御(S424)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、ステップS423で第1撮影装置20a及び第2撮影装置20bの少なくとも1つについて撮影可能と判定した場合、第1撮影装置20aの記憶装置21に記憶されたユーザ情報データベース(図5)を参照して、対象ユーザ識別情報に関連付けられたクライアント識別情報(以下「対象クライアント識別情報」という)を特定する。
プロセッサ22は、対象クライアント識別情報に対応するクライアント装置10に、表示制御データを送信する。
After step S423, the first imaging device 20a executes display control (S424).
Specifically, when it is determined in step S423 that at least one of the first photographing device 20a and the second photographing device 20b can photograph, the processor 22 of the first photographing device 20a stores the storage device 21 of the first photographing device 20a. By referring to the user information database (FIG. 5) stored in, the client identification information (hereinafter referred to as “target client identification information”) associated with the target user identification information is specified.
The processor 22 transmits the display control data to the client device 10 corresponding to the target client identification information.

ステップS424の後、クライアント装置10は、第3実施形態(図16)と同様に、判定結果の表示(ステップS311)〜撮影終了リクエスト(S115)を実行する。 After step S424, the client device 10 executes the display of the determination result (step S311) to the shooting end request (S115), as in the third embodiment (FIG. 16).

ステップS114の後、第1撮影装置20aは、動画ファイルの生成の開始(S425A)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、第1撮影装置20aのカメラ25によって撮影された動画の動画ファイルの記憶装置21への書き込みを開始する。
After step S114, the first imaging device 20a starts generation of a moving image file (S425A).
Specifically, the processor 22 of the first image capturing device 20a starts writing the moving image file of the moving image captured by the camera 25 of the first image capturing device 20a into the storage device 21.

プロセッサ22は、動画ファイルの生成開始指示を第2撮影装置20bに送信する。 The processor 22 transmits a moving image file generation start instruction to the second imaging device 20b.

ステップS425Aの後、第2撮影装置20bは、動画ファイルの生成の開始(S425B)を実行する。
具体的には、第2撮影装置20bのプロセッサ22は、ステップS425Aで第1撮影装置20aから送信された動画ファイルの生成開始指示に応じて、第2撮影装置20bのカメラ25によって撮影された動画の動画ファイルの記憶装置21への書き込みを開始する。
After step S425A, the second image capturing device 20b executes generation of a moving image file (S425B).
Specifically, the processor 22 of the second image capturing device 20b, in response to the moving image file generation start instruction transmitted from the first image capturing device 20a in step S425A, the moving image captured by the camera 25 of the second image capturing device 20b. The writing of the moving image file of the above into the storage device 21 starts.

ステップS115の後、第1撮影装置20aは、動画ファイルの生成の終了(S426A)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、第1撮影装置20aのカメラ25によって撮影された動画の動画ファイルの記憶装置21への書き込みを終了する。
After step S115, the first imaging device 20a executes the end of generation of the moving image file (S426A).
Specifically, the processor 22 of the first image capturing device 20a finishes writing the moving image file of the moving image captured by the camera 25 of the first image capturing device 20a into the storage device 21.

プロセッサ22は、動画ファイルの生成終了指示を第2撮影装置20bに送信する。 The processor 22 sends an instruction to end the generation of the moving image file to the second imaging device 20b.

ステップS426Aの後、第2撮影装置20bは、動画ファイルの生成の終了(S426B)を実行する。
具体的には、第2撮影装置20bのプロセッサ22は、ステップS426Aで第1撮影装置20aから送信された動画ファイルの生成終了指示に応じて、第2撮影装置20bのカメラ25によって撮影された動画の動画ファイルの記憶装置21への書き込みを終了する。
After step S426A, the second imaging device 20b executes the end of generation of the moving image file (S426B).
Specifically, the processor 22 of the second image capturing device 20b, in response to the moving image file generation end instruction transmitted from the first image capturing device 20a in step S426A, the moving image captured by the camera 25 of the second image capturing device 20b. The writing of the moving image file of the above into the storage device 21 is completed.

ステップS426Aの後、第1撮影装置20aは、保存リクエスト(S427A)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、保存リクエストデータをサーバ30に送信する。
保存リクエストデータは、以下の情報を含む。
・ステップS426Aで記憶装置21に記憶された動画ファイル
・対象ユーザ識別情報
・第1撮影装置20aを識別する撮影機材識別情報
・第1撮影装置20aの名称に関する情報
・第1撮影装置20aの対象撮影場所情報
・ステップS114で特定された撮影開始時刻
・ステップS115で特定された撮影終了時刻
After step S426A, the first imaging device 20a executes a save request (S427A).
Specifically, the processor 22 of the first imaging device 20a transmits the save request data to the server 30.
The save request data includes the following information.
-Video file stored in the storage device 21 in step S426A-Target user identification information-Filming equipment identification information that identifies the first imaging device 20a-Information regarding the name of the first imaging device 20a-Target imaging of the first imaging device 20a Location information-The shooting start time specified in step S114-The shooting end time specified in step S115

プロセッサ22は、保存指示を第2撮影装置20bに送信する。 The processor 22 sends a save instruction to the second imaging device 20b.

ステップS427Aの後、第2撮影装置20bは、保存リクエスト(S427B)を実行する。
具体的には、第2撮影装置20bのプロセッサ22は、保存リクエストデータをサーバ30に送信する。
保存リクエストデータは、以下の情報を含む。
・ステップS426Bで記憶装置21に記憶された動画ファイル
・第2撮影装置20bの撮影機材識別情報
・第2撮影装置20bの名称に関する情報
・第2撮影装置20bの対象撮影場所情報
After step S427A, the second imaging device 20b executes a save request (S427B).
Specifically, the processor 22 of the second imaging device 20b sends the save request data to the server 30.
The save request data includes the following information.
-Movie file stored in the storage device 21 in step S426B-Photographing equipment identification information of the second photographing device 20b-Information regarding the name of the second photographing device 20b-Target photographing place information of the second photographing device 20b

ステップS427A〜S427Bの後、サーバ30は、動画ファイルの保存(S431)を実行する。
具体的には、プロセッサ32は、ステップS427Aで第1撮影装置20aから送信された保存リクエストデータに含まれる対象ユーザ識別情報に関連付けられた動画情報データベース(図6)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ファイルID」フィールド…新規の動画ファイル識別情報
・「動画ファイル」フィールド…保存リクエストデータに含まれる動画ファイル
・「撮影機材ID」フィールド…保存リクエストデータに含まれる撮影機材識別情報
・「撮影機材名」フィールド…保存リクエストデータに含まれる撮影装置20の名称に関する情報
・「撮影日時」フィールド…保存リクエストデータに含まれる撮影開始時刻及び撮影終了時刻
・「撮影場所」フィールド…保存リクエストデータに含まれる対象撮影場所情報
After steps S427A to S427B, the server 30 saves the moving image file (S431).
Specifically, the processor 32 adds a new record to the moving image information database (FIG. 6) associated with the target user identification information included in the storage request data transmitted from the first imaging device 20a in step S427A. The following information is stored in each field of the new record.
-"File ID" field... New video file identification information-"Video file" field... Video file included in save request data-"Shooting equipment ID" field... Shooting equipment identification information included in save request data-"Shooting equipment""Name" field... Information about the name of the image capturing device 20 included in the save request data. "Shooting date/time" field... Shooting start time and shooting end time included in the save request data. "Shooting location" field... Included in the save request data. Target shooting location information

なお、第4実施形態では、複数の撮影装置20の一部(例えば、第2撮影装置20b)がカメラ40であっても良い。 In the fourth embodiment, a part of the plurality of image capturing devices 20 (for example, the second image capturing device 20b) may be the camera 40.

また、第4実施形態は、クライアント装置10が、撮影開始リクエストデータ及び撮影終了リクエストデータをサーバ30に送信する場合にも適用可能である。
具体的には、第1撮影装置20a及び第2撮影装置20bは、それぞれ、カメラ25によって撮影された動画をサーバ30に送信する。サーバ30は、ステップS115とステップS431の間に、第1撮影装置20a〜第2撮影装置20bから送信された動画に対して、ステップS124〜S125を実行する。
この場合、ステップS425A〜S427A及びS425B〜S427Bは省略される。
The fourth embodiment is also applicable to the case where the client device 10 transmits the shooting start request data and the shooting end request data to the server 30.
Specifically, each of the first photographing device 20a and the second photographing device 20b transmits a moving image photographed by the camera 25 to the server 30. The server 30 executes steps S124 to S125 for the moving image transmitted from the first photographing device 20a to the second photographing device 20b between step S115 and step S431.
In this case, steps S425A to S427A and S425B to S427B are omitted.

また、第4実施形態は、第1撮影装置20aが、第2撮影装置20b以外の撮影装置20(つまり、複数の撮影装置20)のカメラ状態、第2撮影装置20b及び少なくとも1つのカメラ40のカメラ状態、又は、それらの組合せのカメラ状態を判定する場合にも適用可能である。 Further, in the fourth embodiment, the first image capturing device 20a includes the camera states of the image capturing devices 20 (that is, the plurality of image capturing devices 20) other than the second image capturing device 20b, the second image capturing device 20b, and the at least one camera 40. It is also applicable when determining the camera state or the camera state of a combination thereof.

第4実施形態によれば、ユーザUは、1台の撮影装置(例えば、第1撮影装置20a)にマーカ画像Mを読み取らせると、クライアント装置10に表示された判定結果から、複数の撮影装置20による自身の練習の様子の動画の撮影可否を容易に知ることができる。これにより、複数の撮影装置20を用いて練習の様子の動画を撮影する場合であっても、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the fourth embodiment, when the user U causes one image capturing device (for example, the first image capturing device 20a) to read the marker image M, a plurality of image capturing devices are displayed based on the determination result displayed on the client device 10. It is possible to easily know whether or not a moving image of the practice of oneself by 20 can be taken. This makes it possible to provide an environment in which the user U can easily shoot a moving image of a practice even when shooting a moving image of a practice using a plurality of imaging devices 20.

(5)第5実施形態
第5実施形態を説明する。第4実施形態では、複数の撮影装置20の一部(例えば、第1撮影装置20a)に対して、複数の撮影装置20(例えば、第1撮影装置20a及び第2撮影装置20b)のカメラ状態の判定を要求する例を示した。第5実施形態では、サーバ30に対して複数の撮影装置20(例えば、第1撮影装置20a及び第2撮影装置20b)のカメラ状態の判定を要求する例を示す。
なお、上述の実施形態と同様の説明は省略する。
(5) Fifth Embodiment A fifth embodiment will be described. In the fourth embodiment, the camera states of the plurality of image capturing devices 20 (for example, the first image capturing device 20a and the second image capturing device 20b) with respect to some of the plurality of image capturing devices 20 (for example, the first image capturing device 20a). An example of requesting the determination of is shown. The fifth embodiment shows an example in which the server 30 is requested to determine the camera states of a plurality of image capturing devices 20 (for example, the first image capturing device 20a and the second image capturing device 20b).
The description similar to that of the above-described embodiment will be omitted.

(5−1)第5実施形態の概要
第5実施形態の概要を説明する。図21は、第5実施形態の概要の説明図である。
(5-1) Outline of Fifth Embodiment An outline of the fifth embodiment will be described. FIG. 21 is an explanatory diagram of the outline of the fifth embodiment.

図21に示すように、第5実施形態は、複数の撮影装置(第1撮影装置20a〜第2撮影装置20b)のカメラ状態を判定する技術に関する。
クライアント装置10は、マーカ画像Mを表示する。マーカ画像Mには、第1撮影装置20a〜第2撮影装置20bに撮影させる動画の種別を示す撮影情報が埋め込まれている。
ユーザUがクライアント装置10に表示されたマーカ画像Mを第1撮影装置20aのカメラ25に撮影させると、第1撮影装置20aは、マーカ画像Mをサーバ30に送信する。
サーバ30は、第1撮影装置20aから送信されたマーカ画像Mに埋め込まれた撮影情報を認識する。
サーバ30は、認識された撮影情報を参照して、第1撮影装置20aのカメラ25及び第2撮影装置20bのカメラ25のカメラ状態を判定する。
サーバ30は、カメラ状態に応じた表示制御を実行する。
As shown in FIG. 21, the fifth embodiment relates to a technique of determining the camera states of a plurality of image capturing devices (first image capturing device 20a to second image capturing device 20b).
The client device 10 displays the marker image M. In the marker image M, shooting information indicating the type of moving image to be shot by the first shooting device 20a to the second shooting device 20b is embedded.
When the user U causes the camera 25 of the first photographing device 20a to photograph the marker image M displayed on the client device 10, the first photographing device 20a transmits the marker image M to the server 30.
The server 30 recognizes the shooting information embedded in the marker image M transmitted from the first shooting device 20a.
The server 30 refers to the recognized shooting information and determines the camera state of the camera 25 of the first shooting device 20a and the camera 25 of the second shooting device 20b.
The server 30 executes display control according to the camera state.

(5−2)情報処理
第5実施形態の情報処理を説明する。図22は、第5実施形態の情報処理のシーケンス図である。
(5-2) Information processing The information processing of the fifth embodiment will be described. FIG. 22 is a sequence diagram of information processing of the fifth embodiment.

図22に示すように、クライアント装置10は、第4実施形態(図19)と同様に、撮影情報の指定の受付(S111)〜マーカ画像の表示(S412)を実行する。 As shown in FIG. 22, the client device 10 executes acceptance of designation of photographing information (S111) to display of marker image (S412), as in the fourth embodiment (FIG. 19).

ステップS412の後、第1撮影装置20aは、第1実施形態(図7)と同様に、マーカ画像の撮影(S120)〜マーカ画像の読み取り(S121)を実行する。 After step S412, the first imaging device 20a executes the capturing of the marker image (S120) to the reading of the marker image (S121), as in the first embodiment (FIG. 7).

ステップS121の後、第1撮影装置20aは、判定リクエスト(S521)を実行する。
具体的には、第1撮影装置20aのプロセッサ22は、判定リクエストデータをサーバ30に送信する。判定リクエストデータは、以下の情報を含む。
・ステップS120で撮影されたマーカ画像M11
・第1撮影装置20aの撮影機材識別情報
・第2撮影装置20bの撮影機材識別情報
After step S121, the first imaging device 20a executes a determination request (S521).
Specifically, the processor 22 of the first imaging device 20a transmits the determination request data to the server 30. The determination request data includes the following information.
-Marker image M11 photographed in step S120
-Identification information of the photographing equipment of the first photographing device 20a-Identification information of photographing equipment of the second photographing device 20b

ステップS521の後、サーバ30は、第2実施形態(図14)と同様に、カメラ状態の判定(S231)〜表示制御(S232)を実行する。 After step S521, the server 30 executes camera state determination (S231) to display control (S232), as in the second embodiment (FIG. 14).

ステップS232の後、クライアント装置10は、第3実施形態(図16)と同様に、判定結果の表示(S311)〜動画ファイル生成リクエスト(S312)を実行する。 After step S232, the client device 10 executes the display of the determination result (S311) to the moving image file generation request (S312), as in the third embodiment (FIG. 16).

ステップS312の後、第1撮影装置20aは、第4実施形態(図19)と同様に、動画ファイルの生成(S425A)〜保存リクエスト(S427A)を実行する。 After step S312, the first imaging device 20a executes generation of a moving image file (S425A) to storage request (S427A) as in the fourth embodiment (FIG. 19).

ステップS312の後、第2撮影装置20bは、第4実施形態(図19)と同様に、動画ファイルの生成(S425B)〜保存リクエスト(S427B)を実行する。 After step S312, the second image capturing apparatus 20b executes the generation of a moving image file (S425B) to the storage request (S427B) as in the fourth embodiment (FIG. 19).

ステップS427A〜S427Bの後、サーバ30は、第4実施形態(図19)と同様に、動画ファイルの保存(S431)を実行する。 After steps S427A and S427B, the server 30 executes saving of the moving image file (S431) as in the fourth embodiment (FIG. 19).

なお、第5実施形態では、複数の撮影装置20の一部(例えば、第2撮影装置20b)がカメラ40であっても良い。 In addition, in the fifth embodiment, a part of the plurality of imaging devices 20 (for example, the second imaging device 20b) may be the camera 40.

また、第5実施形態は、クライアント装置10が、撮影開始リクエストデータ及び撮影終了リクエストデータをサーバ30に送信する場合にも適用可能である。この場合、第1撮影装置20a及び第2撮影装置20bは、それぞれ、カメラ25によって撮影された動画をサーバ30に送信する。サーバ30は、第1撮影装置20a〜第2撮影装置20bから送信された動画に対して、ステップS124〜S125を実行する。この場合、ステップS425A〜S427A及びS425B〜S427Bは省略される。 The fifth embodiment is also applicable to the case where the client device 10 transmits the shooting start request data and the shooting end request data to the server 30. In this case, the first photographing device 20a and the second photographing device 20b respectively transmit the moving images photographed by the camera 25 to the server 30. The server 30 executes steps S124 to S125 for the moving images transmitted from the first photographing device 20a to the second photographing device 20b. In this case, steps S425A to S427A and S425B to S427B are omitted.

第5実施形態によれば、ユーザUは、1台の撮影装置20(例えば、第1撮影装置20a)にマーカ画像Mを読み取らせると、クライアント装置10に表示された判定結果から、複数の撮影装置20による自身の練習の様子の動画の撮影可否を容易に知ることができる。これにより、複数の撮影装置20を用いて練習の様子の動画を撮影する場合であっても、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the fifth embodiment, when the user U causes one image capturing device 20 (for example, the first image capturing device 20a) to read the marker image M, a plurality of image capturings are performed based on the determination result displayed on the client device 10. It is possible to easily know whether or not a video of the practice of oneself by the device 20 can be taken. This makes it possible to provide an environment in which the user U can easily shoot a moving image of a practice even when shooting a moving image of a practice using a plurality of imaging devices 20.

(6)第6実施形態
第6実施形態を説明する。第6実施形態は、マーカ画像Mを用いてカメラを制御する例を示す。
なお、上述の実施形態と同様の説明は省略する。
(6) Sixth Embodiment A sixth embodiment will be described. The sixth embodiment shows an example of controlling the camera using the marker image M.
The description similar to that of the above-described embodiment will be omitted.

(6−1)第6実施形態の概要
第6実施形態の概要を説明する。図23は、第6実施形態の概要の説明図である。
(6-1) Outline of Sixth Embodiment An outline of the sixth embodiment will be described. FIG. 23 is an explanatory diagram of the outline of the sixth embodiment.

図23に示すように、第6実施形態は、カメラ(例えば、撮影装置20のカメラ25)を制御する技術に関する。
クライアント装置10は、マーカ画像Mを表示する。マーカ画像Mには、動画の撮影に関する撮影情報が埋め込まれている。
ユーザUがクライアント装置10に表示されたマーカ画像Mを撮影装置20のカメラ25に撮影させると、撮影装置20は、マーカ画像Mに埋め込まれた撮影情報を認識する。
撮影装置20は、認識された撮影情報を参照して、カメラ25のカメラ状態を判定する。
撮影装置20は、撮影可能と判定すると、撮影情報に応じた動画をカメラ25に撮影させる。
As shown in FIG. 23, the sixth embodiment relates to a technique of controlling a camera (for example, the camera 25 of the image capturing device 20).
The client device 10 displays the marker image M. In the marker image M, shooting information regarding shooting of a moving image is embedded.
When the user U causes the camera 25 of the photographing device 20 to photograph the marker image M displayed on the client device 10, the photographing device 20 recognizes the photographing information embedded in the marker image M.
The image capturing apparatus 20 determines the camera state of the camera 25 by referring to the recognized image capturing information.
When the photographing device 20 determines that photographing is possible, the photographing device 20 causes the camera 25 to photograph a moving image according to the photographing information.

(6−2)情報処理
第6実施形態の情報処理を説明する。図24は、第6実施形態の情報処理のシーケンス図である。図25は、図24の情報処理において表示される画面の例を示す図である。
(6-2) Information processing Information processing of the sixth embodiment will be described. FIG. 24 is a sequence diagram of information processing of the sixth embodiment. FIG. 25 is a diagram showing an example of a screen displayed in the information processing of FIG.

図24に示すように、クライアント装置10は、第1実施形態(図6)と同様に、撮影情報の指定の受付(S111)を実行する。 As shown in FIG. 24, the client device 10 executes acceptance of designation of photographing information (S111) as in the first embodiment (FIG. 6).

ステップS111の後、クライアント装置10は、撮影時間の指定の受付(S611)を実行する。
具体的には、ユーザUが操作オブジェクトB10aを操作すると、プロセッサ12は、画面P60(図25)をディスプレイ16に表示する。
After step S111, the client device 10 receives the designation of the shooting time (S611).
Specifically, when the user U operates the operation object B10a, the processor 12 displays the screen P60 (FIG. 25) on the display 16.

画面P60は、フィールドオブジェクトF60を含む。
フィールドオブジェクトF60は、撮影時間の指定を受け付けるためのオブジェクトである。
The screen P60 includes a field object F60.
The field object F60 is an object for receiving the designation of the shooting time.

ステップS611の後、クライアント装置10は、マーカ画像の表示(S612)を実行する。
具体的には、ユーザUが、フィールドオブジェクトF60に撮影時間(例えば、1分30秒)を指定すると、プロセッサ12は、マーカ画像M61を生成する。マーカ画像M61には、以下の情報が埋め込まれる。
・対象撮影情報
・対象ユーザ識別情報
・フィールドオブジェクトF60に指定された撮影時間を示す撮影時間情報
After step S611, the client device 10 displays the marker image (S612).
Specifically, when the user U specifies the shooting time (for example, 1 minute 30 seconds) in the field object F60, the processor 12 generates the marker image M61. The following information is embedded in the marker image M61.
-Target shooting information-Target user identification information-Shooting time information indicating the shooting time specified in the field object F60

プロセッサ12は、プロセッサ12は、マーカ画像M61を含む画面P61(図25)をディスプレイ16に表示する。 The processor 12 causes the display 16 to display a screen P61 (FIG. 25) including the marker image M61.

ステップS612の後、撮影装置20は、第1実施形態(図6)と同様に、マーカ画像の撮影(S120)〜カメラ状態の判定(S122)を実行する。 After step S612, the imaging device 20 performs the imaging of the marker image (S120) to the determination of the camera state (S122), as in the first embodiment (FIG. 6).

ステップS122の後、撮影装置20は、動画ファイルの生成(S621)を実行する。
具体的には、プロセッサ22は、ステップS122で「撮影可能」と判定すると、撮影情報データベース(図4)を参照して、対象動画種別識別情報に関連付けられた「撮影条件」フィールドの情報(つまり、撮影条件情報)を特定する。
プロセッサ22は、マーカ画像M61に埋め込まれた撮影時間情報及び撮影条件情報の組合せに応じて動画の撮影させるための制御信号をカメラ25に送信する。
カメラ25は、プロセッサ22から送信された制御信号に応じて、動画の撮影を実行する。
After step S122, the imaging device 20 executes generation of a moving image file (S621).
Specifically, when the processor 22 determines in step S122 that “imaging is possible”, the processor 22 refers to the imaging information database (FIG. 4) and refers to the information in the “imaging condition” field associated with the target moving image type identification information (that is, , Shooting condition information).
The processor 22 sends a control signal for shooting a moving image to the camera 25 according to the combination of the shooting time information and the shooting condition information embedded in the marker image M61.
The camera 25 executes shooting of a moving image according to the control signal transmitted from the processor 22.

ステップS621の後、撮影装置20は、保存リクエスト(S622)を実行する。
具体的には、プロセッサ22は、保存リクエストデータをサーバ30に送信する。
保存リクエストデータは、以下の情報を含む。
・ステップS621で生成された動画ファイル
・対象ユーザ識別情報
・撮影装置20の撮影機材識別情報
・撮影装置20の名称に関する情報
・撮影装置20の位置に関する情報(以下「対象撮影場所情報」という)
・ステップS621の開始時刻(つまり、撮影開始時刻)
・ステップS621の終了時刻(つまり、撮影終了時刻)
After step S621, the imaging device 20 executes a save request (S622).
Specifically, the processor 22 sends the save request data to the server 30.
The save request data includes the following information.
-Video file generated in step S621-Target user identification information-Photographing equipment identification information of photographing device 20-Information regarding name of photographing device 20-Information regarding position of photographing device 20 (hereinafter referred to as "target photographing place information")
-Start time of step S621 (that is, shooting start time)
-End time of step S621 (that is, shooting end time)

ステップS622の後、サーバ30は、第1実施形態(図6)と同様に、動画ファイルの保存(S131)を実行する。 After step S622, the server 30 executes the saving of the moving image file (S131) as in the first embodiment (FIG. 6).

第6実施形態は、複数の撮影装置20に動画を撮影させる場合にも適用可能である。
第1代替例として、複数の撮影装置20のプロセッサ22は、それぞれ、撮影時間情報及び撮影条件情報の組合せに応じた動画をカメラ25に撮影させるための制御信号を生成する。
第2代替例として、複数の撮影装置20の一部(例えば、第1撮影装置20a)のプロセッサ22は、撮影時間情報及び撮影条件情報の組合せに応じた動画を全てのカメラ25に撮影させるための制御信号を生成する。
The sixth embodiment can be applied to the case where a plurality of image capturing devices 20 are used to capture a moving image.
As a first alternative example, the processors 22 of the plurality of image capturing devices 20 each generate a control signal for causing the camera 25 to capture a moving image in accordance with a combination of the capturing time information and the capturing condition information.
As a second alternative example, the processor 22 of a part of the plurality of image capturing devices 20 (for example, the first image capturing device 20a) causes all the cameras 25 to capture a moving image according to the combination of the image capturing time information and the image capturing condition information. Generates the control signal of.

第6実施形態は、撮影装置20に代えて、1又は複数のカメラ40に動画を撮影させる場合にも適用可能である。
この場合、サーバ30は、第2実施形態と同様に、カメラ40の状態を判定した後、撮影時間情報及び撮影条件情報の組合せに応じた動画を撮影させるための制御信号をカメラ40に送信する。
The sixth embodiment is also applicable to a case where one or a plurality of cameras 40 are used to shoot moving images instead of the shooting device 20.
In this case, as in the second embodiment, the server 30 determines the state of the camera 40, and then transmits to the camera 40 a control signal for shooting a moving image according to the combination of the shooting time information and the shooting condition information. ..

第6態様によれば、ユーザUが指定した撮影時間に応じたマーカ画像Mを撮影装置20が撮影すると、撮影装置20は、ユーザUが指定した撮影時間の動画の撮影を開始する。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the sixth aspect, when the image capturing device 20 captures the marker image M according to the image capturing time designated by the user U, the image capturing device 20 starts capturing a moving image at the image capturing time designated by the user U. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

(7)第7実施形態
第7実施形態を説明する。第7実施形態は、動画名に代えて、撮影条件に基づいてマーカ画像Mを生成する例を示す。
なお、上述の実施形態と同様の説明は省略する。
(7) Seventh Embodiment A seventh embodiment will be described. The seventh embodiment shows an example in which the marker image M is generated based on the shooting condition instead of the moving image name.
The description similar to that of the above-described embodiment will be omitted.

画面P10(図8)は、撮影条件(例えば、フレームレート、解像度、同時撮影台数、画角、アングル、ISO感度、及び、ホワイトバランスの少なくとも1つ)を指定するためのユーザ指示を受け付けるオブジェクトを含む。 The screen P10 (FIG. 8) is an object that receives a user instruction for designating shooting conditions (for example, at least one of frame rate, resolution, number of simultaneous shooting, angle of view, angle, ISO sensitivity, and white balance). Including.

ステップS112において、ユーザUが当該オブジェクトを介して操作条件(例えば、フレームレート)を指定するためのユーザ指示を与えると、プロセッサ12は、ユーザ指示に対応する撮影条件に関する情報(以下「対象撮影条件情報」という)が埋め込まれたマーカ画像Mを生成する。 In step S112, when the user U gives a user instruction for designating an operation condition (for example, a frame rate) via the object, the processor 12 causes the information regarding the shooting condition corresponding to the user instruction (hereinafter, “target shooting condition A marker image M in which information) is embedded is generated.

ステップS122において、プロセッサ22は、カメラ状態が撮影可能条件を満たすか否かを判定する。より具体的には、撮影情報データベース(図4)に対象撮影条件情報が格納されている場合、撮影可能条件を満たす。プロセッサ22は、撮影情報データベースの「撮影条件」フィールドを参照して、対象撮影条件情報が格納されているか否かを判定する。
プロセッサ22は、撮影情報データベースに対象撮影条件情報が格納されている場合、「撮影可能」と判定する。
プロセッサ22は、撮影情報データベースに対象撮影条件情報が格納されていない場合、「撮影不可能」と判定する。
In step S122, the processor 22 determines whether or not the camera state satisfies the photographable condition. More specifically, when the target shooting condition information is stored in the shooting information database (FIG. 4), the shooting enable condition is satisfied. The processor 22 refers to the “shooting condition” field of the shooting information database and determines whether or not the target shooting condition information is stored.
When the target shooting condition information is stored in the shooting information database, the processor 22 determines that “shooting is possible”.
The processor 22 determines that “imaging is impossible” when the target imaging condition information is not stored in the imaging information database.

なお、第7実施形態は、第1実施形態〜第6実施形態と組合せ可能である。つまり、第7実施形態は、ユーザUが動画名及び撮影条件の組合せを指定した場合にも、同様に適用可能である。この場合、プロセッサ22は、対象動画種別識別情報及び対象撮影条件情報の組合せが撮影情報データベースに格納されているか否かに基づいて、撮影可否を判定する。 The seventh embodiment can be combined with the first to sixth embodiments. That is, the seventh embodiment can be similarly applied when the user U designates the combination of the moving image name and the shooting condition. In this case, the processor 22 determines whether or not shooting is possible, based on whether or not the combination of the target moving image type identification information and the target shooting condition information is stored in the shooting information database.

第7実施形態によれば、撮影条件に対応する動画の撮影可否を判定する。これにより、ユーザUが動画種別(例えば、動画名)ではなく撮影条件を指定する場合にも、上記実施形態と同様の効果が得られる。 According to the seventh embodiment, it is determined whether or not the moving image corresponding to the shooting condition can be shot. As a result, even when the user U specifies the shooting condition instead of the moving image type (for example, moving image name), the same effect as that of the above embodiment can be obtained.

(8)本実施形態の小括
本実施形態について小括する。
(8) Summary of the present embodiment The present embodiment will be summarized.

本実施形態の第1態様は、
動画を撮影するように構成されたカメラ25又は40の状態を判定するカメラ状態判定方法であって、
クライアント装置10にマーカ画像Mを表示するステップ(例えば、ステップS112)を備え、
マーカ画像Mには、動画の撮影に関する種別を示す撮影情報が埋め込まれており、
クライアント装置10に表示されたマーカ画像Mに埋め込まれた撮影情報を認識するステップ(例えば、ステップS121)を備え、
認識された撮影情報を参照して、カメラ25又は40の状態を判定するステップ(例えば、ステップS122)を備え、
判定結果に応じた表示制御を実行するステップ(例えば、ステップS123)を備える、
カメラ状態判定方法である。
The first aspect of the present embodiment is
A camera state determination method for determining a state of a camera 25 or 40 configured to shoot a moving image, comprising:
A step of displaying the marker image M on the client device 10 (for example, step S112),
In the marker image M, shooting information indicating the type of moving image shooting is embedded,
A step of recognizing the photographing information embedded in the marker image M displayed on the client device 10 (for example, step S121),
A step of determining the state of the camera 25 or 40 (for example, step S122) with reference to the recognized shooting information,
A step of executing display control according to the determination result (for example, step S123),
This is a camera state determination method.

第1態様によれば、ユーザUは、撮影装置20又はカメラ40の状態を容易に知ることができる。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the first aspect, the user U can easily know the state of the imaging device 20 or the camera 40. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

本実施形態の第2態様は、
撮影情報は、動画の種別を示す動画種別情報及び撮影条件の少なくとも1つを含み、
判定するステップが、動画種別情報及び撮影条件の少なくとも1つを参照して、動画の撮影可否を判定する、
カメラ状態判定方法である。
The second aspect of this embodiment is
The shooting information includes at least one of video type information indicating the type of video and shooting conditions,
The determining step refers to at least one of the moving image type information and the shooting condition, and determines whether or not the moving image can be shot.
This is a camera state determination method.

第2態様によれば、ユーザUは、カメラ25又は40による自身の練習の様子の動画の撮影可否を容易に知ることができる。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the second mode, the user U can easily know whether or not the moving image of the practice of the user by the camera 25 or 40 can be taken. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

本実施形態の第3態様は、
判定するステップが、マーカ画像Mを撮影したカメラ25又は40による動画の撮影可否を判定する、
カメラ状態判定方法である。
The third aspect of the present embodiment is
The determining step determines whether or not a moving image can be captured by the camera 25 or 40 that has captured the marker image M,
This is a camera state determination method.

第3態様によれば、ユーザUが、クライアント装置10に表示されたマーカ画像Mをカメラ25又は40に撮影させるだけで、マーカ画像Mを撮影したカメラ25又は40のカメラ状態の判定結果に応じた表示制御が実行される。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the third aspect, the user U only causes the camera 25 or 40 to capture the marker image M displayed on the client device 10, and according to the determination result of the camera state of the camera 25 or 40 that captured the marker image M. Display control is executed. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

本実施形態の第4態様は、
カメラ25を備えた撮影装置20に問い合わせリクエストを送信するステップ(例えば、ステップS421)を備え、
判定するステップが、問い合わせリクエストに応じてカメラ25の状態を判定する、
カメラ状態判定方法である。
The fourth aspect of the present embodiment is
A step of transmitting an inquiry request to the image capturing apparatus 20 including the camera 25 (for example, step S421),
The determining step determines the state of the camera 25 in response to the inquiry request,
This is a camera state determination method.

第4態様によれば、ユーザUが、クライアント装置10に表示されたマーカ画像Mをカメラ25に撮影させるだけで、カメラ状態の判定結果に応じた表示制御が実行される。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the fourth mode, the user U only causes the camera 25 to capture the marker image M displayed on the client device 10, and the display control according to the determination result of the camera state is executed. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

本実施形態の第5態様は、
カメラが、複数のカメラ25又は40を含み、
問い合わせリクエストを送信するステップが、複数のカメラ25又は40のカメラ状態を問い合わせるための問い合わせリクエストを送信する、
カメラ状態判定方法である。
The fifth aspect of the present embodiment is
The camera includes a plurality of cameras 25 or 40,
The step of sending an inquiry request sends an inquiry request for inquiring about a camera state of the plurality of cameras 25 or 40,
This is a camera state determination method.

第5態様によれば、複数のカメラ25及び40の少なくとも2つの組合せを用いて動画を撮影する場合、ユーザUが、クライアント装置10に表示されたマーカ画像Mをカメラ25又は40に撮影させるだけで、カメラ状態の判定結果に応じた表示制御が実行される。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the fifth aspect, when capturing a moving image using at least two combinations of the plurality of cameras 25 and 40, the user U only causes the camera 25 or 40 to capture the marker image M displayed on the client device 10. Then, the display control according to the determination result of the camera state is executed. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of the practice.

本実施形態の第6態様は、
判定するステップにより撮影可能と判定された後、ユーザUから与えられた撮影開始指示に応じて、カメラ25又は40により撮影された動画の動画ファイルの生成を開始させるステップ(例えば、ステップS124)を備える、
カメラ状態判定方法である。
The sixth aspect of the present embodiment is
After it is determined in the determination step that shooting is possible, a step of starting generation of a moving image file of a moving image shot by the camera 25 or 40 (for example, step S124) in response to a shooting start instruction given by the user U. Prepare,
This is a camera state determination method.

第6態様によれば、ユーザUが、クライアント装置10から撮影開始指示及び撮影終了指示を与えるだけで、所望の動画の撮影が実行される。これにより、ユーザUは、練習の様子の動画を容易に撮影することができる。 According to the sixth aspect, the user U only takes a shooting start instruction and a shooting end instruction from the client device 10 to shoot a desired moving image. As a result, the user U can easily take a video of the practice.

本実施形態の第7態様は、
撮影開始指示が、操作オブジェクトに対する操作、ジェスチャ操作、音声指示の少なくとも1つである、
カメラ状態判定方法である。
The seventh aspect of the present embodiment is
The shooting start instruction is at least one of an operation on the operation object, a gesture operation, and a voice instruction,
This is a camera state determination method.

第7態様によれば、ユーザUは、撮影開始指示及び撮影終了指示を容易に与えることができる。 According to the seventh aspect, the user U can easily give the shooting start instruction and the shooting end instruction.

本実施形態の第8態様は、
撮影開始指示の後にユーザUから与えられた撮影終了指示に応じて、動画ファイルの生成を終了させるステップ(例えば、ステップS125)を備える、
カメラ状態判定方法である。
The eighth aspect of the present embodiment is
A step of ending the generation of the moving image file in response to a shooting end instruction given by the user U after the shooting start instruction (for example, step S125),
This is a camera state determination method.

第8態様によれば、ユーザUが、クライアント装置10に撮影開始指示及び撮影終了指示を与えるだけで、所望の動画の動画ファイルが生成される。これにより、ユーザUは、練習の様子の動画を容易に生成することができる。 According to the eighth aspect, only by the user U giving the shooting start instruction and the shooting end instruction to the client device 10, a moving image file of a desired moving image is generated. This allows the user U to easily generate a moving image of practice.

本実施形態の第9態様は、
カメラ25に撮影させる動画の撮影に関する撮影情報が埋め込まれたマーカ画像Mを表示可能なクライアント装置10に接続可能なカメラ状態判定装置(例えば、撮影装置20)であって、
クライアント装置10に表示されたマーカ画像Mに埋め込まれた撮影情報を認識する手段(例えば、ステップS121を実行するプロセッサ22)を備え、
認識された撮影情報を参照して、カメラ25の状態を判定する手段(例えば、ステップS122を実行するプロセッサ22)を備え、
判定結果に応じた表示制御を実行する手段(例えば、ステップS123を実行するプロセッサ22)を備える、
カメラ状態判定装置(例えば、撮影装置20)である。
The ninth aspect of the present embodiment is
A camera state determination device (for example, the image capturing device 20) that can be connected to the client device 10 that can display a marker image M in which image capturing information regarding capturing of a moving image to be captured by the camera 25 is displayed.
A unit (for example, the processor 22 that executes step S121) for recognizing the shooting information embedded in the marker image M displayed on the client device 10 is provided,
A unit for determining the state of the camera 25 by referring to the recognized shooting information (for example, the processor 22 that executes step S122),
A means for executing display control according to the determination result (for example, the processor 22 that executes step S123) is provided,
It is a camera state determination device (for example, the imaging device 20).

本実施形態の第10態様は、
カメラ25と、クライアント装置10と、カメラ状態判定装置(例えば、撮影装置20)と、を備える撮影システム1であって、
クライアント装置10は、マーカ画像Mを表示する手段(例えば、ステップS112を実行するプロセッサ12)を備え、
マーカ画像Mには、動画の撮影に関する撮影情報が埋め込まれており、
カメラ状態判定装置(例えば、撮影装置20)は、
クライアント装置10に表示されたマーカ画像Mに埋め込まれた撮影情報を認識する手段(例えば、ステップS121を実行するプロセッサ22)を備え、
認識された撮影情報を参照して、カメラ25の状態を判定する手段(例えば、ステップS122を実行するプロセッサ22)を備え、
判定結果に応じた表示制御を実行する手段(例えば、ステップS123を実行するプロセッサ22)を備え、
クライアント装置10は、表示制御の実行結果を表示する手段(例えば、ステップS113を実行するプロセッサ12)を備える、
撮影システム1である。
The tenth aspect of the present embodiment is
An imaging system 1 including a camera 25, a client device 10, and a camera state determination device (for example, an imaging device 20),
The client device 10 includes means for displaying the marker image M (for example, the processor 12 that executes step S112),
In the marker image M, shooting information regarding shooting of a moving image is embedded,
The camera state determination device (for example, the imaging device 20) is
A unit (for example, the processor 22 that executes step S121) for recognizing the shooting information embedded in the marker image M displayed on the client device 10 is provided,
A unit for determining the state of the camera 25 by referring to the recognized shooting information (for example, the processor 22 that executes step S122),
A means for executing display control according to the determination result (for example, the processor 22 executing step S123) is provided,
The client device 10 includes means for displaying the execution result of the display control (for example, the processor 12 that executes step S113).
The imaging system 1.

本実施形態の第11態様は、
カメラ(例えば、撮影装置20)による動画の撮影を制御するカメラ制御方法であって、
クライアント装置10にマーカ画像Mを表示するステップ(例えば、ステップS612)を備え、
マーカ画像Mには、動画の撮影に関する撮影情報が埋め込まれており、
クライアント装置10に表示されたマーカ画像Mに埋め込まれた撮影情報を認識するステップ(例えば、ステップS121)を備え、
認識された撮影情報に応じた動画をカメラ25に撮影させるステップ(例えば、ステップS621)を備える、
カメラ制御方法である。
The eleventh aspect of this embodiment is
A camera control method for controlling shooting of a moving image by a camera (for example, the shooting device 20), comprising:
A step of displaying the marker image M on the client device 10 (for example, step S612),
In the marker image M, shooting information regarding shooting of a moving image is embedded,
A step of recognizing the photographing information embedded in the marker image M displayed on the client device 10 (for example, step S121),
A step of causing the camera 25 to shoot a moving image according to the recognized shooting information (for example, step S621),
This is a camera control method.

第11態様によれば、ユーザUが指定した撮影情報に応じたマーカ画像Mをカメラ25が撮影すると、撮影装置20は、ユーザUが指定した撮影情報に応じた動画の撮影を開始する。これにより、ユーザUが練習の様子の動画を容易に撮影可能な環境を提供することができる。 According to the eleventh aspect, when the camera 25 shoots the marker image M according to the shooting information specified by the user U, the shooting device 20 starts shooting a moving image according to the shooting information specified by the user U. Accordingly, it is possible to provide an environment in which the user U can easily shoot a moving image of practice.

(9)その他の変形例
その他の変形例を説明する。
(9) Other Modifications Other modifications will be described.

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置21は、ネットワークNWを介して、撮影装置20と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 21 may be connected to the imaging device 20 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

本実施形態では、操作オブジェクトB12〜B13に対する操作を介して、撮影開始タイミング及び撮影終了タイミングを指定するためのユーザ指示を受け付ける例を示したが、本実施形態は、これに限られない。本実施形態は、以下の少なくとも1つを介して、当該ユーザ指示を受け付ける例にも適用可能である。
・ジェスチャ操作
・音声指示
In the present embodiment, an example in which a user instruction for designating the shooting start timing and the shooting end timing is received via the operation on the operation objects B12 to B13 has been shown, but the present embodiment is not limited to this. The present embodiment is also applicable to an example of receiving the user instruction via at least one of the following.
・Gesture operation ・Voice instruction

本実施形態では、操作オブジェクトB12に対する操作を介して、撮影開始タイミングを特定する例を示したが、本実施形態は、これに限られない。本実施形態は、ステップS123の実行から所定時間が経過したタイミングを撮影タイミングとして特定する例にも適用可能である。
この場合、画面P14は、操作オブジェクトB14に代えて、所定時間が経過したタイミングまでの残り時間の表示(つまり、カウントダウン表示)を含む。
In the present embodiment, an example in which the shooting start timing is specified through the operation on the operation object B12 has been shown, but the present embodiment is not limited to this. The present embodiment is also applicable to an example in which the timing at which a predetermined time has elapsed from the execution of step S123 is specified as the shooting timing.
In this case, the screen P14 includes a display of the remaining time until the timing when the predetermined time has passed (that is, a countdown display) instead of the operation object B14.

本実施形態では、撮影装置20がクライアント装置10に表示制御データを送信する例を示したが、本実施形態は、これに限られない。本実施形態は、撮影装置20が、サーバ30を介して、表示制御データをクライアント装置10に送信する例にも適用可能である。 In the present embodiment, an example in which the image capturing device 20 transmits the display control data to the client device 10 has been shown, but the present embodiment is not limited to this. The present embodiment is also applicable to an example in which the image capturing device 20 transmits display control data to the client device 10 via the server 30.

本実施形態では、クライアント装置10又は撮影装置20は、サーバ30に記憶された動画を表示しても良い。
具体的には、クライアント装置10又は撮影装置20は、ユーザ識別情報をサーバ30に送信する。
サーバ30は、ユーザ識別情報に関連付けられた動画情報データベース(図6)に含まれる動画ファイル識別情報に対応する動画ファイルのリストをクライアント装置10又は撮影装置20に送信する。
クライアント装置10又は撮影装置20は、サーバ30から送信されたリストを表示する。
ユーザUがリストの中から所望の動画ファイルを選択すると、クライアント装置10又は撮影装置20は、ユーザUによって選択された動画ファイルを再生するための再生リクエストデータをサーバ30に送信する。
サーバ30は、再生リクエストデータに対応する動画ファイルをクライアント装置10又は撮影装置20に送信する。
クライアント装置10又は撮影装置20は、サーバ30から送信された動画ファイルを再生する。
In the present embodiment, the client device 10 or the photographing device 20 may display the moving image stored in the server 30.
Specifically, the client device 10 or the photographing device 20 transmits the user identification information to the server 30.
The server 30 transmits a list of moving image files corresponding to the moving image file identification information included in the moving image information database (FIG. 6) associated with the user identification information to the client device 10 or the photographing device 20.
The client device 10 or the photographing device 20 displays the list transmitted from the server 30.
When the user U selects a desired moving image file from the list, the client device 10 or the photographing device 20 transmits the reproduction request data for reproducing the moving image file selected by the user U to the server 30.
The server 30 transmits the moving image file corresponding to the reproduction request data to the client device 10 or the photographing device 20.
The client device 10 or the photographing device 20 reproduces the moving image file transmitted from the server 30.

本実施形態では、クライアント装置10又は撮影装置20は、サーバ30に記憶された動画と撮影場所情報とを関連付けて表示しても良い。
具体的には、クライアント装置10又は撮影装置20は、ユーザ識別情報をサーバ30に送信する。
サーバ30は、ユーザ識別情報に関連付けられた動画情報データベース(図6)に含まれる動画ファイル識別情報に対応する動画ファイルのリストをクライアント装置10又は撮影装置20に送信する。
クライアント装置10又は撮影装置20は、サーバ30から送信されたリストを表示する。
ユーザUがリストの中から所望の動画ファイルを選択すると、クライアント装置10又は撮影装置20は、ユーザUによって選択された動画ファイルと撮影場所情報とを関連付けて表示するための表示リクエストデータをサーバ30に送信する。
サーバ30は、表示リクエストデータに対応する動画ファイル識別情報及び撮影場所情報の組合せをクライアント装置10又は撮影装置20に送信する。
クライアント装置10又は撮影装置20は、サーバ30から送信された撮影場所情報に対応する地図画像上の位置に、サーバ30から送信された動画ファイル識別情報に対応する画像(例えば、当該動画ファイル識別情報に対応する動画ファイルのサムネイル画像)を表示する。
In the present embodiment, the client device 10 or the photographing device 20 may display the moving image stored in the server 30 and the photographing place information in association with each other.
Specifically, the client device 10 or the photographing device 20 transmits the user identification information to the server 30.
The server 30 transmits a list of moving image files corresponding to the moving image file identification information included in the moving image information database (FIG. 6) associated with the user identification information to the client device 10 or the photographing device 20.
The client device 10 or the photographing device 20 displays the list transmitted from the server 30.
When the user U selects a desired moving image file from the list, the client device 10 or the photographing device 20 causes the server 30 to display the display request data for displaying the moving image file selected by the user U and the photographing location information in association with each other. Send to.
The server 30 transmits the combination of the moving image file identification information and the shooting location information corresponding to the display request data to the client device 10 or the shooting device 20.
The client device 10 or the photographing device 20 has an image corresponding to the moving image file identification information transmitted from the server 30 (for example, the moving image file identification information) at a position on the map image corresponding to the photographing location information transmitted from the server 30. The thumbnail image of the movie file corresponding to is displayed.

本実施形態では、撮影情報データベース(図4)に対象動画識別情報が格納されている場合、撮影可能条件を満たす例を示したが、本実施形態の範囲はこれに限られない。本実施形態は、以下の少なくとも1つの場合に撮影可能条件を満たす例にも適用可能である。
・撮影情報データベースに対象動画識別情報が格納されており、且つ、カメラ状態が「故障」を示していない場合
・撮影情報データベースに対象動画識別情報が格納されており、且つ、カメラ状態が「バッテリ不足」を示していない場合
In the present embodiment, an example has been shown where the target moving image identification information is stored in the shooting information database (FIG. 4), but the scope of the present embodiment is not limited to this. The present embodiment can be applied to an example in which the image capturing condition is satisfied in at least one of the following cases.
-When the target moving image identification information is stored in the shooting information database and the camera state does not indicate "failure"-The target moving image identification information is stored in the shooting information database and the camera state is "battery" If it does not indicate "insufficient"

本実施形態では、撮影開始タイミングを指定するためのユーザ指示を受け付ける操作オブジェクトB12、及び、撮影終了タイミングを指定するためのユーザ指示を受け付ける操作オブジェクトB14をクライアント装置10のディスプレイ16に表示する例を示したが、本実施形態の範囲はこれに限られない。本実施形態は、操作オブジェクトB12及びB14を撮影装置20のディスプレイ26に表示する場合にも適用可能である。 In the present embodiment, an example in which an operation object B12 that receives a user instruction to specify a shooting start timing and an operation object B14 that receives a user instruction to specify a shooting end timing are displayed on the display 16 of the client device 10. However, the scope of the present embodiment is not limited to this. The present embodiment is also applicable to a case where the operation objects B12 and B14 are displayed on the display 26 of the image capturing device 20.

本実施形態では、撮影開始のユーザ指示(例えば、操作オブジェクトB12に対する操作)に応じて動画ファイルの生成を開始し、且つ、撮影終了のユーザ指示(例えば、操作オブジェクトB13に対する操作)に応じて動画ファイルの生成を終了する例を示したが、本実施形態の範囲はこれに限られない。本実施形態は、撮影開始のユーザ指示及び撮影終了のユーザ指示の組合せに応じて、動画ファイルを生成する場合にも適用可能である。
この場合、撮影装置20のプロセッサ22又はサーバ30のプロセッサ32は、記憶装置21又は31に記憶された動画から、撮影開始時刻と撮影終了時刻との間の時刻に対応する保存対象フレームの動画ファイルを生成し、且つ、当該動画ファイルを記憶装置21又は31に記憶する。
In the present embodiment, generation of a moving image file is started in response to a user instruction to start shooting (for example, an operation on the operation object B12), and a moving image is started according to a user instruction to end shooting (for example, an operation on the operation object B13). Although the example of ending the generation of the file is shown, the scope of the present embodiment is not limited to this. This embodiment is also applicable to the case where a moving image file is generated according to a combination of a user instruction to start shooting and a user instruction to end shooting.
In this case, the processor 22 of the image capturing device 20 or the processor 32 of the server 30 uses the moving image file stored in the storage device 21 or 31 to store the moving image file of the frame to be saved corresponding to the time between the image capturing start time and the image capturing end time. Is generated and the moving image file is stored in the storage device 21 or 31.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be variously modified and changed without departing from the gist of the present invention. Further, the above-described embodiments and modified examples can be combined.

1 :撮影システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
16 :ディスプレイ
20 :撮影装置
20a :第1撮影装置
20b :第2撮影装置
21 :記憶装置
22 :プロセッサ
23 :入出力インタフェース
24 :通信インタフェース
25 :カメラ
26 :ディスプレイ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
40 :カメラ
1: Imaging system 10: Client device 11: Storage device 12: Processor 13: Input/output interface 14: Communication interface 15: Camera 16: Display 20: Imaging device 20a: First imaging device 20b: Second imaging device 21: Storage device 22: processor 23: input/output interface 24: communication interface 25: camera 26: display 30: server 31: storage device 32: processor 33: input/output interface 34: communication interface 40: camera

Claims (13)

所定の撮影情報に対応する動画を撮影するように構成されたカメラのカメラ状態を判定するカメラ状態判定方法であって、
クライアント装置にマーカ画像を表示するステップを備え、
前記マーカ画像には、動画の撮影に関する撮影情報が埋め込まれており、
前記カメラが、前記クライアント装置に表示されたマーカ画像を撮影するステップを備え、
前記カメラによって撮影されたマーカ画像を用いて、前記マーカ画像に埋め込まれた撮影情報を認識するステップを備え、
前記認識された撮影情報が前記所定の撮影情報に該当するか否かに応じて、前記カメラによる前記認識された撮影情報に対応する動画の撮影可否を判定するステップを備え、
前記撮影可否の判定結果に応じた情報を前記クライアント装置に表示するステップを備える、
カメラ状態判定方法。
A camera state determination method for determining a camera state of a camera configured to shoot a moving image corresponding to predetermined shooting information ,
A step of displaying the marker image on the client device,
In the marker image, shooting information regarding shooting of a moving image is embedded,
The camera comprises a step of capturing a marker image displayed on the client device ,
A step of recognizing shooting information embedded in the marker image using the marker image taken by the camera ,
A step of determining whether or not the moving image corresponding to the recognized shooting information by the camera can be shot according to whether the recognized shooting information corresponds to the predetermined shooting information ,
A step of displaying on the client device information according to the determination result of the photographing possibility ,
Camera state determination method.
動画を撮影するように構成されたカメラのカメラ状態を判定するカメラ状態判定方法であって、 A camera state determination method for determining a camera state of a camera configured to shoot a video, comprising:
クライアント装置に、マーカ画像を表示するステップを備え、 A step of displaying the marker image on the client device,
前記マーカ画像には、動画の撮影に関する撮影情報が埋め込まれており、 In the marker image, shooting information regarding shooting of a moving image is embedded,
前記カメラが、前記クライアント装置に表示されたマーカ画像を撮影するステップを備え、 The camera comprises a step of capturing a marker image displayed on the client device,
前記カメラによって撮影されたマーカ画像を用いて、前記マーカ画像に埋め込まれた撮影情報を認識するステップを備え、 A step of recognizing shooting information embedded in the marker image using the marker image taken by the camera,
前記カメラが撮影可能な動画の撮影情報が格納された撮影情報データベースに、前記認識された撮影情報が格納されているか否かに応じて、前記カメラによる動画の撮影可否を判定するステップを備え、 A shooting information database in which shooting information of a moving image that can be shot by the camera is stored, and a step of determining whether to shoot a moving image by the camera according to whether the recognized shooting information is stored.
前記撮影可否の判定結果に応じた情報を前記クライアント装置に表示するステップを備える、 A step of displaying on the client device information according to the determination result of the photographing possibility,
カメラ状態判定方法。Camera state determination method.
前記撮影情報は、前記動画の種別を示す動画種別情報及び撮影条件の少なくとも1つを含み、
前記判定するステップは、前記動画種別情報及び撮影条件の少なくとも1つを参照して、前記動画の撮影可否を判定する、
請求項1又は2に記載のカメラ状態判定方法。
The shooting information includes at least one of video type information indicating a type of the video and shooting conditions,
In the determining step, it is determined whether or not the moving image can be shot, with reference to at least one of the moving image type information and the shooting condition.
Camera state determination method according to claim 1 or 2.
前記表示制御を実行するステップは、前記判定するステップにより撮影可能と判定された場合、前記撮影を指示するためのユーザ指示を受け付けるオブジェクトを前記クライアント装置に表示する、 The step of executing the display control displays, on the client device, an object that accepts a user instruction for instructing the photographing, when the photographing step determines that the photographing is possible.
請求項1〜3の何れかに記載のカメラ状態判定方法。The camera state determination method according to claim 1.
前記カメラは、前記動画を常時撮影するように構成され、 The camera is configured to constantly capture the video,
前記カメラにより常時撮影された動画を用いて、前記ユーザ指示に応じた動画の動画ファイルを生成するステップを備える、 A step of generating a moving image file of a moving image in accordance with the user instruction, using a moving image constantly captured by the camera,
請求項4に記載のカメラ状態判定方法。The camera state determination method according to claim 4.
前記オブジェクトは、前記オブジェクトに対する操作、前記オブジェクトに対するジェスチャ操作、前記オブジェクトが表示された後の音声指示の少なくとも1つに応じたユーザ指示を受け付ける、 The object receives a user instruction corresponding to at least one of an operation on the object, a gesture operation on the object, and a voice instruction after the object is displayed,
請求項4又は5に記載のカメラ状態判定方法。The camera state determination method according to claim 4 or 5.
前記オブジェクトは、動画ファイルの生成を開始させるためのユーザ指示、及び、撮影を終了させるためのユーザ指示を受け付けるように構成され、 The object is configured to receive a user instruction for starting generation of a moving image file and a user instruction for ending shooting.
前記動画ファイルを生成するステップは、前記撮影を開始させるためのユーザ指示を受け付けたタイミングと、前記撮影を終了させるためのユーザ指示を受け付けたタイミングと、の間に含まれる動画の動画ファイルを生成する、 The step of generating the moving image file generates a moving image file of a moving image included between the timing of receiving the user instruction to start the shooting and the timing of receiving the user instruction to end the shooting. To do
請求項4〜6の何れかに記載のカメラ状態判定方法。The camera state determination method according to claim 4.
前記カメラを備えた撮影装置に問い合わせリクエストを送信するステップを備え、
前記判定するステップは、前記問い合わせリクエストに応じて前記撮影可否を判定する、
請求項1〜7の何れかに記載のカメラ状態判定方法。
Comprising the step of sending an inquiry request to a photographing device equipped with the camera,
The determining step determines whether or not the photographing is possible according to the inquiry request,
Camera state determination method according to any of claims 1-7.
前記カメラは、複数のカメラを含み、
前記問い合わせリクエストを送信するステップは、前記複数のカメラによる動画の撮影可否を問い合わせるための問い合わせリクエストを送信する、
請求項に記載のカメラ状態判定方法。
The camera includes a plurality of cameras,
The step of transmitting the inquiry request transmits an inquiry request for inquiring whether or not the plurality of cameras can capture a moving image ,
The camera state determination method according to claim 8 .
所定の撮影情報に対応する動画を撮影するように構成されたカメラに撮影させる動画の撮影に関する撮影情報が埋め込まれたマーカ画像を表示可能なクライアント装置に接続可能なカメラ状態判定装置であって、
前記クライアント装置に表示されたマーカ画像に埋め込まれた撮影情報を認識する手段を備え、
前記認識された撮影情報が所定の撮影情報に該当するか否かに応じて、前記カメラによる前記認識された撮影情報に対応する動画の撮影可否を判定する手段を備え、
前記撮影可否の判定結果に応じた情報を前記クライアント装置に表示する手段を備える、
カメラ状態判定装置。
A camera state determination device connectable to a client device capable of displaying a marker image in which shooting information regarding shooting of a moving image to be shot by a camera configured to shoot a moving image corresponding to predetermined shooting information ,
A means for recognizing photographing information embedded in the marker image displayed on the client device,
A unit for determining whether or not the moving image corresponding to the recognized shooting information by the camera can be shot according to whether the recognized shooting information corresponds to predetermined shooting information ;
A means for displaying information on the client device according to the determination result of the photographing possibility ,
Camera state determination device.
カメラに撮影させる動画の撮影に関する撮影情報が埋め込まれたマーカ画像を表示可能なクライアント装置に接続可能なカメラ状態判定装置であって、 A camera state determination device connectable to a client device capable of displaying a marker image in which shooting information regarding shooting of a moving image to be shot by a camera is embedded,
前記カメラが撮影可能な動画の撮影情報を格納する撮影情報データベースを備え、 A shooting information database storing shooting information of moving images that the camera can shoot;
前記クライアント装置に表示されたマーカ画像に埋め込まれた撮影情報を認識する手段を備え、 A means for recognizing photographing information embedded in the marker image displayed on the client device,
前記認識された撮影情報が前記撮影情報データベースに記憶されているか否かに応じて、前記カメラによる動画の撮影可否を判定する手段を備え、 A unit for determining whether or not the camera can shoot a moving image according to whether or not the recognized shooting information is stored in the shooting information database;
前記撮影可否の判定結果に応じた情報を前記クライアント装置に表示する手段を備える、 A means for displaying information on the client device according to the determination result of the photographing possibility,
カメラ状態判定装置。Camera state determination device.
所定の撮影情報に対応する動画を撮影するように構成されたカメラと、クライアント装置と、カメラ状態判定装置と、を備える撮影システムであって、
前記クライアント装置は、マーカ画像を表示する手段を備え、
前記マーカ画像には、動画の撮影に関する撮影情報が埋め込まれており、
前記カメラは、前記クライアント装置に表示されたマーカ画像を撮影する手段を備え、
前記カメラ状態判定装置は、
前記カメラによって撮影されたマーカ画像を用いて、前記マーカ画像に埋め込まれた撮影情報を認識する手段を備え、
前記認識された撮影情報が前記所定の撮影情報に該当するか否かに応じて、前記カメラによる前記認識された撮影情報に対応する動画の撮影可否を判定する手段を備え、
前記撮影可否の判定結果に応じた情報を前記クライアント装置に送信する手段を備え、
前記クライアント装置は、前記撮影可否の判定結果に応じた情報を表示する手段を備える、
撮影システム。
A photographing system comprising a camera configured to photograph a moving image corresponding to predetermined photographing information , a client device, and a camera state determination device,
The client device includes means for displaying a marker image,
In the marker image, shooting information regarding shooting of a moving image is embedded,
The camera includes means for capturing a marker image displayed on the client device,
The camera state determination device,
A marker image photographed by the camera is used, and means for recognizing photographing information embedded in the marker image is provided,
A unit for determining whether or not the moving image corresponding to the recognized shooting information by the camera can be shot according to whether the recognized shooting information corresponds to the predetermined shooting information ;
A means for transmitting information according to the determination result of the photographing possibility to the client device ,
The client device includes means for displaying information according to the determination result of the photographing availability .
Shooting system.
カメラと、クライアント装置と、カメラ状態判定装置と、を備える撮影システムであって、 An imaging system including a camera, a client device, and a camera state determination device,
前記クライアント装置は、マーカ画像を表示する手段を備え、 The client device includes means for displaying a marker image,
前記マーカ画像には、動画の撮影に関する撮影情報が埋め込まれており、 In the marker image, shooting information regarding shooting of a moving image is embedded,
前記カメラは、前記クライアント装置に表示されたマーカ画像を撮影する手段を備え、 The camera includes means for capturing a marker image displayed on the client device,
前記カメラ状態判定装置は、 The camera state determination device,
前記カメラが撮影可能な動画の撮影情報を格納する撮影情報データベースを備え、 A shooting information database storing shooting information of moving images that the camera can shoot;
前記カメラによって撮影されたマーカ画像を用いて、前記マーカ画像に埋め込まれた撮影情報を認識する手段を備え、 A marker image photographed by the camera is used, and means for recognizing photographing information embedded in the marker image is provided,
前記認識された撮影情報が前記撮影情報データベースに記憶されているか否かに応じて、前記カメラによる動画の撮影可否を判定する手段を備え、 A unit for determining whether or not the camera can shoot a moving image according to whether or not the recognized shooting information is stored in the shooting information database;
前記撮影可否の判定結果に応じた情報を前記クライアント装置に送信する手段を備え、 A means for transmitting information according to the determination result of the photographing possibility to the client device,
前記クライアント装置は、前記撮影可否の判定結果に応じた情報を表示する手段を備える、 The client device includes means for displaying information according to the determination result of the photographing availability.
撮影システム。Shooting system.
JP2019192160A 2019-10-21 2019-10-21 Camera state determination method, camera state determination device, shooting system, camera control method Active JP6717491B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019192160A JP6717491B1 (en) 2019-10-21 2019-10-21 Camera state determination method, camera state determination device, shooting system, camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192160A JP6717491B1 (en) 2019-10-21 2019-10-21 Camera state determination method, camera state determination device, shooting system, camera control method

Publications (2)

Publication Number Publication Date
JP6717491B1 true JP6717491B1 (en) 2020-07-01
JP2021068985A JP2021068985A (en) 2021-04-30

Family

ID=71131591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192160A Active JP6717491B1 (en) 2019-10-21 2019-10-21 Camera state determination method, camera state determination device, shooting system, camera control method

Country Status (1)

Country Link
JP (1) JP6717491B1 (en)

Also Published As

Publication number Publication date
JP2021068985A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US7742625B2 (en) Autonomous camera having exchangable behaviours
KR101412772B1 (en) Camera and method for providing guide information for image capture
JP6899002B2 (en) Image processing methods, devices, computer-readable storage media and electronic devices
JP2010147769A (en) Imaging system, image presentation method, and program
JP2012050012A (en) Image photographing system, control method of image photographing system, photographing device, control method of photographing device, and program
JP5153478B2 (en) Image processing apparatus and image processing method
JP2022140458A (en) Information processing device, information processing method, and program
JP6717491B1 (en) Camera state determination method, camera state determination device, shooting system, camera control method
WO2019215797A1 (en) Composition advice system, composition advice method, camera and program
KR100691530B1 (en) Information display apparatus and information display method
JP2011087221A (en) Camera
CN112565586A (en) Automatic focusing method and device
JP4817708B2 (en) Image search system, image pickup apparatus, image search apparatus, image search method, image pickup apparatus control method, image search apparatus control method, program, and recording medium
JP2017157956A (en) Information processing apparatus, information processing apparatus control method, and program
US11496685B2 (en) Information processing system, information processing method, medium, and management device
JP2003283976A (en) Medium information recording apparatus and its method
WO2016017224A1 (en) Information processing device, information processing method, and program
JP2010004357A (en) Image capturing apparatus and image capturing method
JP2017017471A (en) Information processing system, and control method and program thereof
JP2008257361A (en) Profile creation system
WO2017054111A1 (en) Method and device for sharing and downloading light field image
JP2008242712A (en) Image recognition apparatus and image recognition method
JP2017135477A (en) Image managing device, image reproducing device, method for controlling the same, system, program, and storage medium
JP2021044622A (en) Control device, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191025

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200603

R150 Certificate of patent or registration of utility model

Ref document number: 6717491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250