JP6424927B2 - Processing control method and processing control system - Google Patents

Processing control method and processing control system Download PDF

Info

Publication number
JP6424927B2
JP6424927B2 JP2017133102A JP2017133102A JP6424927B2 JP 6424927 B2 JP6424927 B2 JP 6424927B2 JP 2017133102 A JP2017133102 A JP 2017133102A JP 2017133102 A JP2017133102 A JP 2017133102A JP 6424927 B2 JP6424927 B2 JP 6424927B2
Authority
JP
Japan
Prior art keywords
communication terminal
user
identification information
information
control server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017133102A
Other languages
Japanese (ja)
Other versions
JP2017216702A (en
Inventor
ゆみ子 邑田
ゆみ子 邑田
村田 淳
淳 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017133102A priority Critical patent/JP6424927B2/en
Publication of JP2017216702A publication Critical patent/JP2017216702A/en
Application granted granted Critical
Publication of JP6424927B2 publication Critical patent/JP6424927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)

Description

本願は、処理制御方法及び処理制御システムに関する。 The present application relates to a process control method and a process control system .

例えば、PDA(Personal Digital Assistants)、携帯電話機等のモバイル機器が、操作画面上で入力された指示に基づき、ネットワークを介して接続された外部機器を操作する方法が知られている(例えば、特許文献1参照)。   For example, there is known a method in which a mobile device such as a PDA (Personal Digital Assistants) or a cellular phone operates an external device connected via a network based on an instruction input on an operation screen (for example, a patent) Reference 1).

しかしながら、上述した特許文献1の方法では、近くの機器と接続したい場合でも、操作画面を見ながら操作しなければならないため、すぐに接続することができなかった。また、例えばWi−Fi(登録商標)(Wireless Fidelity)等の無線LAN(Local Area Network)により公共の場に設置された機器と接続して操作する場合にはセキュリティの面での問題も生じた。   However, according to the method of Patent Document 1 described above, even when it is desired to connect to a nearby device, since it is necessary to operate while looking at the operation screen, it has not been possible to connect immediately. In addition, for example, when connected to a device installed in a public place by a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark) (Wireless Fidelity) and operated, there was a problem in terms of security. .

1つの側面では、本発明は、簡単な操作で所定の場所にある所定の機器に応じた処理を実行させることを目的とする。   In one aspect, the present invention aims to execute processing according to a predetermined device in a predetermined place with a simple operation.

一態様において、処理制御方法は、所定の範囲内に存在するユーザを対象に実行する処理と、装置から発せられる識別情報と、を関連付けて記憶装置に登録する登録ステップと、通信端末を所持して移動するユーザが前記装置の設置されている場所から前記所定の範囲内にまで近付いたことで、当該通信端末が当該装置の発する前記識別情報を取得する取得ステップと、当該識別情報に基づき特定される処理を実行させるため、当該通信端末が当該識別情報を情報処理装置に送信する送信ステップと、前記送信ステップにより送信された当該識別情報に関連付いて登録されている処理を特定する特定ステップと、前記特定ステップにより特定された処理の実行を制御する処理制御ステップと、を有し、前記処理制御ステップは、前記所定の範囲内を撮影する撮影機能が起動されるよう制御し、当該所定の範囲内に存在する前記ユーザが撮影された画像を当該ユーザに閲覧可能に提供する。 In one aspect, the process control method includes: a registration step of correlating a process to be performed on a user present in a predetermined range with identification information issued from the device and registering the process in a storage device; And the communication terminal acquires the identification information emitted by the device when the moving user approaches from the place where the device is installed to within the predetermined range, and identifying based on the identification information Transmission step in which the communication terminal transmits the identification information to the information processing apparatus, and identification step specifying the process registered in association with the identification information transmitted in the transmission step, If, have a, a processing control step of controlling execution of a process specified by the specifying step, said processing control step, the predetermined range Controlled to photographing function for photographing an inner is activated, the user present within the predetermined range is provided viewable images taken to the user.

簡単な操作で所定の場所にある所定の機器に応じた処理を実行させることが可能となる。   It is possible to execute processing according to a predetermined device in a predetermined place by a simple operation.

第1実施形態に係る機器制御システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the apparatus control system which concerns on 1st Embodiment. 通信端末に係る機能構成の一例を示す図である。It is a figure which shows an example of the function structure which concerns on a communication terminal. 制御サーバに係る機能構成の一例を示す図である。It is a figure which shows an example of the function structure which concerns on a control server. 通信端末に係るハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which concern on a communication terminal. 制御サーバに係るハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which concern on a control server. 第1実施形態に係る機器制御シーケンスの一例を示す図である。It is a figure which shows an example of the apparatus control sequence which concerns on 1st Embodiment. 第1実施形態の変形例を説明するための図である。It is a figure for demonstrating the modification of 1st Embodiment. 第2実施形態に係る機器制御システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the apparatus control system which concerns on 2nd Embodiment. 第2実施形態に係る機器制御シーケンスの一例を示す図である。It is a figure which shows an example of the apparatus control sequence which concerns on 2nd Embodiment. 制御サーバが保持するテーブルの一例を示す図である。It is a figure which shows an example of the table which a control server hold | maintains.

以下、実施の形態について詳細に説明する。   Hereinafter, the embodiment will be described in detail.

<第1実施形態>
<機器制御システム:概略構成>
図1は、第1実施形態に係る機器制御システムの概略構成の一例を示す図である。図1に示すように、機器制御システム1は、通信端末10と、制御サーバ20と、撮像機器30−1〜30−2とを有するように構成される。通信端末10と、制御サーバ20と、撮像機器30とは、例えばインターネット、無線LAN、Bluetooth(登録商標)等に代表される通信ネットワークにより接続されている。
First Embodiment
<Device control system: schematic configuration>
FIG. 1 is a diagram showing an example of a schematic configuration of a device control system according to the first embodiment. As shown in FIG. 1, the device control system 1 is configured to have a communication terminal 10, a control server 20, and imaging devices 30-1 to 30-2. The communication terminal 10, the control server 20, and the imaging device 30 are connected by a communication network represented by, for example, the Internet, a wireless LAN, Bluetooth (registered trademark) or the like.

なお、図1の例では、カメラ等の撮像機器30−1〜30−2を示しているが、これには限定されず他の機器であっても良く、機器の台数もこれには限定されない。撮像機器30−1〜30−2は、適宜、撮像機器30と称して説明する。   In addition, although the example of FIG. 1 shows imaging devices 30-1 to 30-2 such as a camera, it is not limited to this and may be another device, and the number of devices is not limited to this. . The imaging devices 30-1 to 30-2 will be referred to as imaging devices 30 as appropriate.

通信端末10は、例えばスマートフォン等の携帯端末や、PDA等のタブレット端末等である。通信端末10は、例えばユーザによる所定の動作の一例として通信端末10本体を「振る」等の動作を検知し、検知したタイミングで、撮像機器30が所定の範囲に発した機器識別音を収集し、収集した機器識別音を制御サーバ20に送信する。   The communication terminal 10 is, for example, a portable terminal such as a smart phone or a tablet terminal such as a PDA. For example, the communication terminal 10 detects an operation such as “shaking” of the communication terminal 10 as an example of a predetermined operation by the user, and collects the device identification sound emitted by the imaging device 30 within a predetermined range at the detected timing. And transmits the collected device identification sound to the control server 20.

ここで、機器識別音は、例えば機器ごとに異なる音に設定された機器を識別するための音である。機器識別音は、例えばモスキート音や、騒音にならないような可聴帯域外の高周波帯域(例えば18kHz以上)の周波数により構成された所定パターンの音等であるが、これに限定されるものではない。   Here, the device identification sound is, for example, a sound for identifying a device set to a different sound for each device. The device identification sound is, for example, a mosquito sound or a predetermined pattern sound formed by a frequency of a high frequency band (for example, 18 kHz or more) outside the audible band that does not become noise, but is not limited thereto.

制御サーバ20は、通信端末10から取得した機器識別音に応じて、通信端末10や撮像機器30に対して所定の処理を実行する。制御サーバ20は、例えば機器識別音を解析して機器識別音に対応する撮像機器30を特定すると、特定した撮像機器30に対して予め設定された処理を実行するよう指示する。   The control server 20 executes predetermined processing on the communication terminal 10 and the imaging device 30 according to the device identification sound acquired from the communication terminal 10. For example, when the control server 20 analyzes the device identification sound and specifies the imaging device 30 corresponding to the device identification sound, the control server 20 instructs the specified imaging device 30 to execute a preset process.

撮像機器30は、予め設定された所定の範囲に対して機器識別音を発生する。所定の範囲とは、撮像機器30に内蔵されたスピーカ等により出力される機器識別音が届く範囲であっても良く、図1に示すように撮像機器30と外部接続されるスピーカ等から出力される機器識別音が届く範囲であっても良い。また、撮像機器30は、制御サーバ20からの指示にしたがって所定の処理を実行する。   The imaging device 30 generates a device identification sound in a predetermined range set in advance. The predetermined range may be a range in which a device identification sound output by a speaker or the like built in the imaging device 30 can reach, and as shown in FIG. 1, it is output from a speaker or the like externally connected to the imaging device 30 It may be within the reach of the device identification sound. Further, the imaging device 30 executes a predetermined process in accordance with an instruction from the control server 20.

図1の例では、撮像機器30は、例えばテーマパークやアミューズメントパーク、観光地等の撮影スポット等の所定の場所に設置され、撮影可能な所定の範囲に対して機器識別音を発生させている。なお、各撮像機器30は、他の機器識別音が干渉することがないような範囲で発生させることが好ましいがこれに限定されるものではない。   In the example of FIG. 1, the imaging device 30 is installed at a predetermined place such as a theme park, an amusement park, a shooting spot such as a sightseeing spot, and generates a device identification sound in a predetermined range which can be shot. . In addition, although it is preferable to generate each imaging device 30 in the range which other apparatus identification sound does not interfere, it is not limited to this.

通信端末10は、例えば撮像機器30−1が設置されている場所でユーザによる「振る」等の動作を検知すると、撮像機器30−1から発せられている機器識別音を収集し、収集した機器識別音を制御サーバ20に送信する(図1に示す(1))。なお、通信端末10は、機器識別音と併せて通信端末10を識別するための端末識別情報(例えば、端末IPアドレス)等を送信する。   For example, when the communication terminal 10 detects an operation such as “shake” by the user at a place where the imaging device 30-1 is installed, the communication terminal 10 collects the device identification sound emitted from the imaging device 30-1, and collects the collected devices. The identification sound is transmitted to the control server 20 ((1) shown in FIG. 1). The communication terminal 10 transmits terminal identification information (for example, a terminal IP address) or the like for identifying the communication terminal 10 in addition to the device identification sound.

制御サーバ20は、通信端末10から取得した機器識別音を解析し、解析した機器識別音に対応する機器が、例えば撮像機器30−1であると判定すると、撮像機器30−1に対して予め設定された処理として、例えば撮影を行うように指示する(図1に示す(2))。撮像機器30−1は、設置された位置で撮影を行い、撮影画像を制御サーバ20に送信する(図1に示す(3))。制御サーバ20は、撮像機器30−1から撮影画像を取得すると、対応する機器識別音を取得した通信端末10に撮影画像を送信する(図1に示す(4))。   The control server 20 analyzes the device identification sound acquired from the communication terminal 10, and determines that the device corresponding to the analyzed device identification sound is, for example, the imaging device 30-1, in advance with respect to the imaging device 30-1. As the set processing, for example, an instruction to perform photographing is given ((2) shown in FIG. 1). The imaging device 30-1 performs imaging at the installed position, and transmits the captured image to the control server 20 ((3) shown in FIG. 1). When the control server 20 acquires a photographed image from the imaging device 30-1, the control server 20 transmits the photographed image to the communication terminal 10 which has acquired the corresponding device identification sound ((4) shown in FIG. 1).

上述したように、通信端末10は、所定の処理を実行させたい機器の近くで「振る」等の動作を行い、機器が発している機器識別音を収集して、制御サーバ20に送信することで、制御サーバ20により機器を制御して所定の処理を実行させることが可能となる。   As described above, the communication terminal 10 performs an operation such as “shake” in the vicinity of the device for which a predetermined process is desired to be performed, collects the device identification sound emitted by the device, and transmits it to the control server 20 Thus, the control server 20 can control the device to execute predetermined processing.

<通信端末10:機能構成>
図2は、通信端末に係る機能構成の一例を示す図である。図2に示すように、通信端末10は、入力手段11と、出力手段12と、動作検知手段13と、音収集手段14と、記憶手段15と、位置情報受信手段16と、通信手段17と、制御手段18とを有するように構成される。
<Communication terminal 10: Functional configuration>
FIG. 2 is a diagram showing an example of a functional configuration related to the communication terminal. As shown in FIG. 2, the communication terminal 10 includes an input unit 11, an output unit 12, an operation detection unit 13, a sound collection unit 14, a storage unit 15, a position information reception unit 16, and a communication unit 17. , And control means 18.

入力手段11は、例えばユーザからの各種指示の開始/終了、設定等の入力を受け付ける。出力手段12は、入力手段11により入力された内容や、入力内容に基づいて実行された内容を出力したり、操作画面上に画像を表示したりする。なお、上述した入力手段11と出力手段12とは、例えばタッチパネル等のような入出力一体型の構成により機能しても良い。   The input unit 11 receives, for example, input of start / end and setting of various instructions from the user. The output unit 12 outputs the content input by the input unit 11 or the content executed based on the input content, or displays an image on the operation screen. The input unit 11 and the output unit 12 described above may function with an input / output integrated configuration such as a touch panel, for example.

動作検知手段13は、通信端末10に対する所定の動作を検知し、例えばユーザによる「振る」動作があったか否かを判定する。動作検知手段13は、例えば加速度センサ37により得られる値から、例えば「振る」等の動作があったことを検知することが可能である。なお、所定の動作とは、例えば通信端末10本体を「回す」動作でも良く、通信端末10の画面に対してユーザが行う所定の操作(例えば、スワイプ、ダブルタップ)であっても良く、これに限定されるものではない。   The operation detection unit 13 detects a predetermined operation on the communication terminal 10, and determines, for example, whether there has been a "shake" operation by the user. The motion detection unit 13 can detect, for example, from the value obtained by the acceleration sensor 37, that there is a motion such as “shake”. The predetermined operation may be, for example, an operation of “turning the main body of the communication terminal 10”, or a predetermined operation (for example, swipe, double tap) performed by the user on the screen of the communication terminal 10 It is not limited to

音収集手段14は、例えば動作検知手段13により、例えば「振る」動作等があったと判定された場合に、例えば機器から所定の範囲に発せられている機器識別音を収集するが、これには限定されない。音収集手段14は、例えばユーザによる所定の操作(例えば、画面上での「常時モード」、音収集ボタンの選択等)に応じて、上述した機器識別音を収集しても良い。   The sound collecting unit 14 collects, for example, the device identification sounds emitted from a device in a predetermined range, for example, when it is determined by the operation detection unit 13 that there is a “shake” operation or the like, for example. It is not limited. The sound collection unit 14 may collect the above-described device identification sound, for example, in response to a predetermined operation by the user (for example, “always mode” on the screen, selection of a sound collection button, and the like).

記憶手段15は、例えば音収集手段14により収集された機器識別音を記憶したり、予め通信端末10を識別するための端末識別情報等を記憶したり、位置情報受信手段16により得られた位置情報を記憶したりする。   The storage unit 15 stores, for example, the device identification sound collected by the sound collection unit 14, stores in advance terminal identification information or the like for identifying the communication terminal 10, or the position obtained by the position information reception unit 16. Store information

位置情報受信手段16は、例えばGPS(Global Positioning System)や、IMES(Indoor MEssage System)等を介して測位情報(位置情報)を受信する。ここで、位置情報受信手段16は、例えばWi−Fi、超音波、可視光通信、自律航法型を利用した測位技術等を用いて位置情報を受信しても良く、これには限定されない。   The position information receiving unit 16 receives positioning information (position information) via, for example, a GPS (Global Positioning System), an IMES (Indoor MEssage System), or the like. Here, the position information receiving unit 16 may receive position information using, for example, Wi-Fi, ultrasonic waves, visible light communication, positioning technology using an autonomous navigation type, or the like, and is not limited thereto.

通信手段17は、上述した通信ネットワークを介して、例えば制御サーバ20とデータの送受信を行う。通信手段17は、例えば制御サーバ20に対して音収集手段14により収集した機器識別音や、通信端末10を識別する端末識別情報や、位置情報受信手段16により受信した位置情報等を送信したり、制御サーバ20から送信された画像等を受信したりする。   The communication unit 17 transmits and receives, for example, data to and from the control server 20 via the communication network described above. The communication unit 17 transmits, for example, the device identification sound collected by the sound collection unit 14, the terminal identification information for identifying the communication terminal 10, the position information received by the position information reception unit 16, etc. , Receive an image or the like transmitted from the control server 20.

制御手段18は、通信端末10の各構成全体の制御を行う。例えば、制御手段18は、動作検知手段13による動作検知処理や、音収集手段14による機器識別音の収集処理等を制御する。   The control unit 18 controls the entire configuration of the communication terminal 10. For example, the control unit 18 controls operation detection processing by the operation detection unit 13, collection processing of device identification sound by the sound collection unit 14, and the like.

<制御サーバ20:機能構成>
図3は、制御サーバに係る機能構成の一例を示す図である。図3に示すように、制御サーバ20は、入力手段21と、出力手段22と、音解析手段23と、処理実行手段24と、記憶手段25と、通信手段26と、制御手段27とを有するように構成される。
<Control server 20: Functional configuration>
FIG. 3 is a diagram illustrating an example of a functional configuration related to the control server. As shown in FIG. 3, the control server 20 includes an input unit 21, an output unit 22, a sound analysis unit 23, a process execution unit 24, a storage unit 25, a communication unit 26, and a control unit 27. Configured as.

入力手段21は、例えばポインティングデバイスやタッチパネル、ハードキー等から構成され、ユーザ等からの各種指示の開始、終了等の入力を受け付ける。出力手段22は、例えば入力手段21により入力された内容や、入力内容に基づいて実行された内容、通信ネットワークを介して受信したデータ等を出力する。   The input unit 21 includes, for example, a pointing device, a touch panel, a hard key, and the like, and receives inputs such as start and end of various instructions from the user or the like. The output unit 22 outputs, for example, the content input by the input unit 21, the content executed based on the input content, data received via a communication network, and the like.

音解析手段23は、通信端末10から取得した機器識別音を解析し、解析した機器識別音に含まれる機器を識別するための機器識別情報等を抽出する。音解析手段23は、例えば所定の数値(例えば「1」、「2」等)に対応して予め設定された周波数に基づき、例えば機器識別情報等に対応して予め設定された所定のパターン(例えば「1111」)を抽出する。   The sound analysis unit 23 analyzes the device identification sound acquired from the communication terminal 10, and extracts device identification information and the like for identifying a device included in the analyzed device identification sound. The sound analysis means 23 is, for example, based on a frequency set in advance corresponding to a predetermined numerical value (for example, “1”, “2”, etc.), for example, a predetermined pattern set in advance corresponding to device identification information etc. For example, "1111" is extracted.

処理実行手段24は、例えば通信端末10から得られた機器識別音に対応する処理を実行する。処理実行手段24は、例えば機器識別音の解析により、機器識別音に対応して予め設定された処理を実行する機器を判定する。処理実行手段24は、例えば通信端末10から機器識別音と併せて位置情報を取得した場合には、機器識別音と位置情報とに基づいて、予め設定された処理を実行する機器を判定しても良い。   The process execution unit 24 executes, for example, a process corresponding to the device identification sound obtained from the communication terminal 10. The process execution unit 24 determines an apparatus which executes a process set in advance corresponding to the apparatus identification sound, for example, by analyzing the apparatus identification sound. For example, when the position information is acquired from the communication terminal 10 together with the device identification sound, the processing execution means 24 determines the device to execute the preset processing based on the device identification sound and the position information. Also good.

処理実行手段24は、例えば機器識別音に対応する撮像機器30に対して、所定の範囲の撮影を指示し、撮影を指示した撮像機器30から撮影画像を取得すると、取得した撮影画像を通信端末10に送信する。処理実行手段24は、複数の異なる機器識別音に対応するそれぞれの撮像機器30から得られた撮影画像を通信端末10ごとに保存し、保存している撮影画像を通信端末10ごとに送信しても良い。   The processing execution unit 24 instructs, for example, the imaging device 30 corresponding to the device identification sound to shoot a predetermined range, and acquires a captured image from the imaging device 30 that instructed the capturing, the acquired captured image as a communication terminal Send to 10 The processing execution unit 24 stores, for each communication terminal 10, captured images obtained from the respective imaging devices 30 corresponding to a plurality of different device identification sounds, and transmits the stored captured images to each communication terminal 10. Also good.

記憶手段25は、機器識別音に対応する処理内容の判定テーブルや、通信端末10から取得した情報テーブル等を記憶する。通信手段26は、通信端末10や撮像機器30等の機器とデータの送受信を行う。   The storage unit 25 stores a determination table of processing content corresponding to the device identification sound, an information table acquired from the communication terminal 10, and the like. The communication unit 26 exchanges data with devices such as the communication terminal 10 and the imaging device 30.

制御手段27は、制御サーバ20の各構成全体の制御を行う。例えば、制御手段27は、音解析手段23による音解析処理や、処理実行手段24による処理等を制御する。   The control means 27 controls the entire configuration of the control server 20. For example, the control unit 27 controls sound analysis processing by the sound analysis unit 23 and processing by the processing execution unit 24.

<通信端末:ハードウェア構成>
図4は、通信端末に係るハードウェア構成の一例を示す図である。図4に示すように、通信端末10は、タッチセンサ31と、タッチパネルディスプレイ32と、CPU(Central Processing Unit)33と、ROM(Read Only Memory)34とを有するように構成される。更に、通信端末10は、RAM(Random Access Memory)35と、記憶装置36と、加速度センサ37と、位置情報受信装置38と、音声入力装置39と、インターフェース装置40とを有するように構成される。
<Communication terminal: hardware configuration>
FIG. 4 is a diagram illustrating an example of a hardware configuration related to the communication terminal. As shown in FIG. 4, the communication terminal 10 is configured to have a touch sensor 31, a touch panel display 32, a central processing unit (CPU) 33, and a read only memory (ROM) 34. Furthermore, the communication terminal 10 is configured to have a RAM (Random Access Memory) 35, a storage device 36, an acceleration sensor 37, a position information receiving device 38, a voice input device 39, and an interface device 40. .

タッチセンサ31は、例えばタッチパネルディスプレイ32に対する操作を検知する。タッチセンサ31は、例えばタッチパネルディスプレイ32に対する接触が検知されたタイミングでパラメータを取得する。   The touch sensor 31 detects an operation on the touch panel display 32, for example. The touch sensor 31 acquires parameters at, for example, a timing at which a touch on the touch panel display 32 is detected.

取得するパラメータとしては、例えばタッチイベント、タッチパネルディスプレイ32上で接触があった位置の座標(Vx,Vy)、接触があった位置の数、位置の座標の変化量(△Vx,△Vy)、時間あたりの変化量(tVx,tVy)等である。なお、取得するパラメータは、これに限定されるものではない。   The parameters to be acquired include, for example, touch events, coordinates (Vx, Vy) of positions where there is a touch on the touch panel display 32, the number of positions where there is a touch, variation amounts of position coordinates (ΔVx, ΔVy), The change amount per time (tVx, tVy) or the like. The parameters to be acquired are not limited to this.

タッチパネルディスプレイ32は、各種データを画面に表示したり、ユーザからの操作により所定の入力データを取得するための操作画面を表示したりする。   The touch panel display 32 displays various data on the screen, and displays an operation screen for acquiring predetermined input data by an operation from the user.

CPU33は、ROM34や記憶装置36からプログラムやデータをRAM35上に読み出し、処理を実行することで、通信端末10全体の制御や搭載機能を実現する。CPU33は、例えば各種チップセットを有し、チップセットを介して他の機器と接続する。   The CPU 33 reads programs and data from the ROM 34 and the storage device 36 onto the RAM 35 and executes processing to realize control and installation functions of the entire communication terminal 10. The CPU 33 has, for example, various chipsets, and connects to other devices via the chipset.

ROM34は、例えば電源を切っても内部データを保持することが可能な不揮発性の半導体メモリ(記憶装置)であり、各種プログラムやデータが格納されている。RAM35は、プログラムやデータを一次保存する揮発性の半導体メモリである。   The ROM 34 is, for example, a nonvolatile semiconductor memory (storage device) capable of holding internal data even after the power is turned off, and stores various programs and data. The RAM 35 is a volatile semiconductor memory that temporarily stores programs and data.

記憶装置36は、例えば画像や音声等の各種データの蓄積を行うストレージである。記憶装置36は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、メモリカード等の一般的に利用されている記憶媒体により構成される。   The storage device 36 is a storage that accumulates various data such as images and sounds. The storage device 36 is configured by a generally used storage medium such as, for example, a hard disk drive (HDD), a solid state drive (SSD), an optical disk, or a memory card.

加速度センサ37は、通信端末10の加速度の変化を検出する。加速度センサ37は、例えば所定時間間隔で常時パラメータを取得する。例えば、加速度センサ37は、XYZの3軸におけるX値、Y値、Z値や、X値、Y値、Z値の時間あたりの変化率△X、△Y、△Z、及びX値、Y値、Z値が変化した際のその時間間隔tX、tY、tZの値等をそれぞれ取得する。   The acceleration sensor 37 detects a change in acceleration of the communication terminal 10. The acceleration sensor 37 always acquires parameters at predetermined time intervals, for example. For example, in the acceleration sensor 37, X value, Y value, Z value, X value, Y value, change rate per time of Z value in three axes of XYZ, ΔX, ΔY, ΔZ, and X value, Y The values of the time interval tX, tY, tZ etc. when the value and the Z value change are respectively acquired.

位置情報受信装置38は、例えばGPSやIMES等の測位信号を受信するアンテナを有し、測位信号に含まれる位置情報を受信する。   The position information receiving apparatus 38 has an antenna for receiving positioning signals such as GPS and IMES, for example, and receives position information included in the positioning signals.

音声入力装置39は、例えばマイク等により構成され、例えば撮像機器30等からの機器識別音を収集したり、ユーザの声を収集したりする。   The voice input device 39 includes, for example, a microphone, and collects, for example, device identification sounds from the imaging device 30 or the like, and collects voices of users.

インターフェース装置40は、例えば無線LAN等を介して接続された他の機器との間で通信を行うためのインターフェースである。   The interface device 40 is an interface for communicating with other devices connected via, for example, a wireless LAN.

<制御サーバ20:ハードウェア構成>
図5は、制御サーバに係るハードウェア構成の一例を示す図である。図5に示すように、制御サーバ20は、入力装置41と、表示装置42と、HDD43と、ROM44と、RAM45と、CPU46と、インターフェース装置47と、ドライブ装置48とを有するように構成され、それぞれがバスBで相互に接続されている。
<Control server 20: hardware configuration>
FIG. 5 is a diagram illustrating an example of a hardware configuration related to the control server. As shown in FIG. 5, the control server 20 is configured to have an input device 41, a display device 42, an HDD 43, a ROM 44, a RAM 45, a CPU 46, an interface device 47, and a drive device 48. Each is connected to each other by a bus B.

入力装置41は、例えばキーボードやマウス等を含み、各操作信号を入力するのに用いられる。表示装置42は、例えばディスプレイ等により構成され、処理結果を表示する。   The input device 41 includes, for example, a keyboard and a mouse, and is used to input each operation signal. The display device 42 is configured by, for example, a display or the like, and displays the processing result.

HDD43は、プログラムや各種データを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する情報処理システム(例えば「Windous(登録商標)」等の基本ソフトウェアであるOS(Operating System)、及びシステム上で各種機能を提供するアプリケーション等がある。HDD43は、格納しているプログラムやデータを所定のファイルシステムやDB(Data Base)により管理している。   The HDD 43 is a non-volatile storage device storing programs and various data. An information processing system (for example, OS (Operating System) which is basic software such as "Windous (registered trademark)") and an application for providing various functions on the system are included in the stored programs and data. The HDD 43 manages stored programs and data by a predetermined file system and a DB (Data Base).

ROM44は、電源を切っても内部データを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM44には、制御サーバ20の起動時に実行されるBIOS(Basic Input/Output System)、情報処理システム設定、及びネットワーク設定等のプログラムやデータが格納されている。   The ROM 44 is a non-volatile semiconductor memory (storage device) capable of holding internal data even when the power is turned off. The ROM 44 stores programs and data such as a BIOS (Basic Input / Output System), information processing system settings, and network settings which are executed when the control server 20 is started.

RAM45は、プログラムやデータを一次保存する揮発性の半導体メモリである。CPU46は、上記記憶装置(「HDD43」や「ROM44」)からプログラムやデータをRAM45上に読み出し、処理を実行することで、制御サーバ20全体の制御や搭載機能を実現する。   The RAM 45 is a volatile semiconductor memory that temporarily stores programs and data. The CPU 46 reads a program or data from the storage device ("HDD 43" or "ROM 44") onto the RAM 45 and executes processing to realize control and installation functions of the entire control server 20.

インターフェース装置47は、機器と接続してデータ通信を行うためのインターフェースである。ドライブ装置48は、着脱可能な記録媒体48Aとのインターフェースである。ドライブ装置48は、記録媒体48Aの読み取りや書き込みを行う。   The interface device 47 is an interface for connecting to a device to perform data communication. The drive device 48 is an interface with the removable recording medium 48A. The drive device 48 reads and writes the recording medium 48A.

記録媒体48Aには、例えばフロッピーディスク、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、SDメモリカード(SD Memory card)、USB(Universal Serial Bus memory)等がある。   Examples of the recording medium 48A include a floppy disk, a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory card), a USB (Universal Serial Bus memory), and the like.

上述したハードウェア構成により、制御サーバ20は、各種処理を実行することが可能となる。なお、制御サーバ20は、例えば入力装置41や表示装置42を備えていない構成であっても良い。   The hardware configuration described above enables the control server 20 to execute various processes. The control server 20 may not have the input device 41 and the display device 42, for example.

<第1実施形態:機器制御シーケンス>
図6は、第1実施形態に係る機器制御シーケンスの一例を示す図である。なお、図6では説明の便宜上、1台の撮像機器30を用いて説明する。図6に示すように、所定の撮影スポットに設置されている撮像機器30は、例えば撮影可能な範囲に対して機器識別音を発生させている(S10)。
First Embodiment Device Control Sequence
FIG. 6 is a diagram showing an example of the device control sequence according to the first embodiment. Note that FIG. 6 will be described using one imaging device 30 for convenience of description. As shown in FIG. 6, the imaging device 30 installed at a predetermined imaging spot generates, for example, an apparatus identification sound in a range where imaging is possible (S10).

通信端末10を保持しているユーザは、所定の撮影スポットで写真撮影を行いたいとき、撮像機器30に向かいながら、例えば通信端末10本体を振る。通信端末10は、動作検知手段13により「振る」動作を検知すると(S11)、音収集手段14により撮像機器30から発生されている機器識別音を収集する(S12)。   When the user holding the communication terminal 10 wants to take a picture at a predetermined photographing spot, the user shakes, for example, the main body of the communication terminal 10 while facing the imaging device 30. When the communication terminal 10 detects the "shake" operation by the operation detection unit 13 (S11), the sound collection unit 14 collects device identification sounds generated from the imaging device 30 (S12).

ここで、ユーザは所望の撮像機器30に向かって通信端末10を振ることにより、どの機器を利用したいか、直感的な動作で指定することが可能である。なお、ユーザは、機器識別音を収集可能な範囲であれば、撮像機器30に向けて通信端末10を振らなくても良い。また、被写体となるユーザが適切な位置で撮影されるように、所定の撮影スポットに撮像機器30の撮影可能な範囲を考慮した看板等の目印を設け、ユーザが目印の場所で通信端末10を振るようにしても良い。   Here, by swinging the communication terminal 10 toward the desired imaging device 30, the user can specify which device he / she wants to use with an intuitive operation. Note that the user may not shake the communication terminal 10 toward the imaging device 30 as long as the device identification sound can be collected. In addition, a mark such as a signboard in consideration of the imageable range of the imaging device 30 is provided in a predetermined imaging spot so that the user serving as the subject is photographed at an appropriate position, and the user operates the communication terminal 10 at the mark location. You may shake it.

通信端末10は、収集した機器識別音を、通信端末10の端末識別情報(例えば、端末IPアドレス)と併せて、通信手段17により制御サーバ20に送信する(S13)。なお、S13の処理において、通信端末10は、制御サーバ20においてより精度良く機器を特定するため、位置情報受信手段16により受信した位置情報を、機器識別音と併せて制御サーバ20に送信しても良い。   The communication terminal 10 transmits the collected device identification sound to the control server 20 by the communication means 17 together with the terminal identification information (for example, the terminal IP address) of the communication terminal 10 (S13). In the process of S13, the communication terminal 10 transmits the position information received by the position information receiving means 16 together with the device identification sound to the control server 20 in order to specify the device more accurately in the control server 20. Also good.

制御サーバ20は、音解析手段23により通信端末10から取得した機器識別音を解析し(S14)、処理実行手段24により、例えば機器識別音に対応する機器が撮像機器30であると判定する(S15)。また、制御サーバ20は、処理実行手段24により、機器識別音に対応して予め設定されている処理内容を判定する(S16)。   The control server 20 analyzes the device identification sound acquired from the communication terminal 10 by the sound analysis unit 23 (S14), and determines that the device corresponding to the device identification sound is the imaging device 30 by the process execution unit 24 (S14) S15). Further, the control server 20 determines, by the processing execution means 24, the processing content set in advance corresponding to the device identification sound (S16).

次に、制御サーバ20は、予め設定されている処理内容が、例えば撮像機器30に撮影を指示することと判定すると、撮像機器30に対して所定の範囲の撮影を指示する(S17)。撮像機器30は、制御サーバ20からの指示に基づき、撮影を行う(S18)。   Next, when it is determined that the processing content set in advance instructs the imaging device 30 to perform imaging, for example, the control server 20 instructs the imaging device 30 to perform imaging in a predetermined range (S17). The imaging device 30 performs imaging based on an instruction from the control server 20 (S18).

なお、S18の処理において、撮像機器30は、撮影前にスピーカ等から撮影する旨をユーザに通知しても良い。例えば、撮像機器30がタイマー機能を有していれば、制御サーバ20が、例えば5秒後に撮影するよう撮像機器30に指示すると、撮像機器30は、制御サーバ20の指示を取得してから5秒後に撮影することが可能である。   Note that, in the process of S18, the imaging device 30 may notify the user that imaging is performed from a speaker or the like before imaging. For example, if the imaging device 30 has a timer function, when the control server 20 instructs the imaging device 30 to take a picture, for example, after 5 seconds, the imaging device 30 receives an instruction of the control server 20 and then 5 It is possible to shoot after a second.

ここで、例えば撮像機器30のスピーカ等に予め5秒等のカウントダウンを行う音声データを保持させ、制御サーバ20は、撮像機器30にタイマー機能を用いた撮影を指示し、撮像機器30のスピーカ等に音声出力指示を行うと良い。これにより、撮像機器30のスピーカ等は、制御サーバ20からの指示に応じて5秒等のカウントダウンを行う音声データを再生し、撮像機器30は、音声データに合わせて撮影を行うことが可能となる。   Here, for example, the speaker of the imaging device 30 holds audio data for performing countdown such as 5 seconds in advance, the control server 20 instructs the imaging device 30 to perform photographing using a timer function, and the speaker of the imaging device 30 It is good to give an audio output instruction. Thereby, the speaker or the like of the imaging device 30 reproduces the audio data for counting down 5 seconds or the like according to the instruction from the control server 20, and the imaging device 30 can perform imaging in accordance with the audio data. Become.

また、制御サーバ20が、上述した音声データを保持しておき、撮像機器30のスピーカ等に音声データを送信しても良く、通信端末10に音声データを送信して、通信端末10において音声データを再生させて撮影する旨を通知しても良い。また、制御サーバ20は、ユーザが「振る」動作を検知した時間を取得し、その時間を基準にタイマー設定を行い、所定時間経過後(例えば5秒後)等に撮像機器30に撮影を指示しても良い。   In addition, the control server 20 may hold the above-described audio data and transmit the audio data to the speaker of the imaging device 30 or the like, transmit the audio data to the communication terminal 10, and transmit the audio data to the communication terminal 10. May be played back to notify that shooting is to be performed. In addition, the control server 20 acquires the time when the user detects the "shake" operation, sets the timer based on that time, and instructs the imaging device 30 to take a picture after a predetermined time (for example, 5 seconds). You may.

また、S18の処理において、撮像機器30は、撮影範囲(画角)内に人物の顔が含まれているか否かの顔の向きの判定を行い、その顔が正面を向いているものと判定された場合に、撮影を行っても良い。なお、顔が正面を向いているか否かは、例えば目や鼻、口等の特徴量等を基準に判定することができるが、これに限定されるものではない。また、撮像機器30は、曇り空や夜間等の周囲の環境等に合わせてフラッシュモードで撮影しても良い。更に、撮像機器30における撮影は、静止画に限定されず、動画でも良い。   Further, in the process of S18, the imaging device 30 determines the direction of the face whether or not the person's face is included in the shooting range (field angle), and determines that the face is facing forward. When it is done, you may shoot. Note that whether or not the face is facing forward can be determined based on, for example, feature amounts of eyes, a nose, a mouth and the like, but is not limited thereto. The imaging device 30 may also shoot in the flash mode in accordance with the surrounding environment such as cloudy sky or night. Furthermore, shooting in the imaging device 30 is not limited to a still image, and may be a moving image.

撮像機器30は、制御サーバ20に対して撮影した画像を送信する(S19)。なお、画像送信時には、所定の圧縮手法による画像圧縮を行っても良い。制御サーバ20は、撮像機器30から画像を取得すると、通信端末10から取得した端末識別情報(例えば、端末IPアドレス)に基づき、取得した画像を送信する(S20)。   The imaging device 30 transmits the captured image to the control server 20 (S19). At the time of image transmission, image compression may be performed by a predetermined compression method. When acquiring the image from the imaging device 30, the control server 20 transmits the acquired image based on the terminal identification information (for example, the terminal IP address) acquired from the communication terminal 10 (S20).

上述したように、通信端末10は、撮影を行いたい撮像機器30の近くで「振る」動作等を行うと、制御サーバ20により、通信端末10が収集した機器識別音に対応した撮像機器30に対して撮影を実行させることが可能となる。   As described above, when the communication terminal 10 performs a “shake” operation or the like near the imaging device 30 that wants to take a picture, the control server 20 sends an imaging device 30 corresponding to the device identification sound collected by the communication terminal 10. It is possible to execute shooting on the other hand.

<第1実施形態の変形例>
図7は、第1実施形態の変形例を説明するための図である。図7に示すように、例えばテーマパークや、アミューズメントパーク、観光地等において撮像機器30−1〜30−2が所定の撮影スポットに設置されているものとする。なお、撮像機器30の台数は、これには限定されない。
Modification of First Embodiment
FIG. 7 is a view for explaining a modification of the first embodiment. As shown in FIG. 7, it is assumed that imaging devices 30-1 to 30-2 are installed at predetermined imaging spots in, for example, a theme park, an amusement park, a sightseeing spot or the like. The number of imaging devices 30 is not limited to this.

通信端末10を保持するユーザは、予め撮影スポットを訪れる前に通信端末10を振って「常時モード」を選択しておくと、音収集手段14が、常に機器識別音を収集した状態となる。また、制御サーバ20には、通信端末10から「常時モード」を選択したことを示す情報と、通信端末10の端末識別情報とが送信される。   When the user holding the communication terminal 10 shakes the communication terminal 10 in advance and visits the shooting spot to select the “always mode”, the sound collection unit 14 always collects the device identification sound. Further, information indicating that the “always mode” is selected from the communication terminal 10 and the terminal identification information of the communication terminal 10 are transmitted to the control server 20.

ユーザが所定の撮影スポットを訪れると、通信端末10は、撮影スポットに設置されている撮像機器30から機器識別音を収集し、収集した機器識別音を、通信端末10の端末識別情報と併せて、制御サーバ20に送信する。   When the user visits a predetermined imaging spot, the communication terminal 10 collects device identification sounds from the imaging device 30 installed at the imaging spots, and the collected device identification sounds are combined with the terminal identification information of the communication terminal 10. , Sends to the control server 20.

図7の例では、ユーザがA地点〜D地点を順に訪れ、撮像機器30−1の撮影スポット(A地点)と、撮像機器30−2の撮影スポット(C地点)を訪れたものとする。ユーザがA地点に来ると、通信端末10は、撮像機器30−1が所定の範囲に発している機器識別音を音収集手段14により収集することが可能である。   In the example of FIG. 7, it is assumed that the user visits points A to D in order and visits a shooting spot (point A) of the imaging device 30-1 and a shooting spot (point C) of the imaging device 30-2. When the user comes to the point A, the communication terminal 10 can collect, using the sound collection unit 14, the device identification sound emitted by the imaging device 30-1 in a predetermined range.

通信端末10は、撮像機器30−1の機器識別音を収集すると、収集した機器識別音と通信端末10の端末識別情報とを制御サーバ20に送信する(図7に示す(1))。制御サーバ20は、撮像機器30−1に対して撮影を行うように指示する(図7に示す(2))。撮像機器30−1は、制御サーバ20の指示によりユーザの撮影を行い、撮影した画像を制御サーバ20に送信する(図7に示す(3))。   When the device identification sound of the imaging device 30-1 is collected, the communication terminal 10 transmits the collected device identification sound and the terminal identification information of the communication terminal 10 to the control server 20 ((1) shown in FIG. 7). The control server 20 instructs the imaging device 30-1 to perform imaging ((2) shown in FIG. 7). The imaging device 30-1 captures an image of the user according to an instruction from the control server 20, and transmits the captured image to the control server 20 ((3) in FIG. 7).

また、ユーザは、撮像機器30−2の撮影スポット(C地点)に移動すると、通信端末10は、撮像機器30−2が所定の範囲に発している機器識別音を音収集手段14により収集することが可能である。   In addition, when the user moves to the imaging spot (point C) of the imaging device 30-2, the communication terminal 10 collects the device identification sound emitted by the imaging device 30-2 in a predetermined range by the sound collection unit 14 It is possible.

通信端末10は、撮像機器30−2の機器識別音を収集すると、収集した機器識別音と通信端末10の端末識別情報とを制御サーバ20に送信する(図7に示す(4))。制御サーバ20は、撮像機器30−2に対して撮影を行うように指示する(図7に示す(5))。撮像機器30−2は、制御サーバ20の指示によりユーザの撮影を行い、撮影した画像を制御サーバ20に送信する(図7に示す(6))。   After collecting the device identification sounds of the imaging device 30-2, the communication terminal 10 transmits the collected device identification sounds and the terminal identification information of the communication terminal 10 to the control server 20 ((4) shown in FIG. 7). The control server 20 instructs the imaging device 30-2 to perform imaging ((5) shown in FIG. 7). The imaging device 30-2 shoots the user according to the instruction of the control server 20, and transmits the shot image to the control server 20 ((6) shown in FIG. 7).

更に、ユーザがD地点に移動後、通信端末10は、制御サーバ20に撮像機器30−1〜30−2で撮影された画像の取得要求を行い(図7に示す(7))、制御サーバ20から対応する画像を取得することが可能となる(図7に示す(8))。   Furthermore, after the user moves to the point D, the communication terminal 10 requests the control server 20 to acquire an image captured by the imaging device 30-1 to 30-2 ((7) shown in FIG. 7), the control server It is possible to obtain a corresponding image from 20 ((8) shown in FIG. 7).

このように、通信端末10は、予め「常時モード」を選択しておくことにより、撮影スポットを移動している間に、撮影スポットに設置されている複数の撮像機器30により撮影された画像を、制御サーバ20から取得することが可能となる。   As described above, the communication terminal 10 selects the “always mode” in advance, and thereby, while moving the imaging spot, the images captured by the plurality of imaging devices 30 installed in the imaging spot are displayed. , And can be acquired from the control server 20.

なお、上述した第1実施形態で、タイマー設定(機能)を利用して撮影を行う例を示したが、この変形例の「常時モード」では、タイマー設定を利用しない方が望ましい場合もある。第1実施形態では、ユーザは撮影スポットにおいて静止した状態で通信端末10を「振る」等の動作を行ったが、変形例の「常時モード」では、ユーザが移動しているときに撮影が行われる場合もある。すなわち、タイマー設定を利用すると、機器識別音を取得した通信端末10のユーザが被写体として撮影可能な範囲から外れてしまう場合もある。   In the first embodiment described above, an example in which shooting is performed using the timer setting (function) is shown, but it may be desirable not to use the timer setting in the “always mode” of this modification. In the first embodiment, the user performs an operation such as "shake" on the communication terminal 10 in a stationary state at the imaging spot, but in the "always mode" of the modification, the imaging is performed when the user is moving It may be That is, when the timer setting is used, the user of the communication terminal 10 that has acquired the device identification sound may be out of the range in which it can be photographed as a subject.

したがって、制御サーバ20は、「常時モード」で動作している通信端末10の端末識別情報を所定の記憶領域に管理しておき、通信端末10から機器識別音と端末識別情報とを受信すると、受信した端末識別情報に基づき、「常時モード」で動作しているか判定する。制御サーバ20は、「常時モード」で動作している通信端末10の場合には、タイマー設定なしの撮影指示を行い、「常時モード」で動作していない通信端末10の場合には、タイマー設定ありの撮影指示を行うと良い。   Therefore, control server 20 manages the terminal identification information of communication terminal 10 operating in the “always mode” in a predetermined storage area, and receives the device identification sound and the terminal identification information from communication terminal 10, Based on the received terminal identification information, it is determined whether it is operating in the "always mode". In the case of the communication terminal 10 operating in the “always mode”, the control server 20 issues a shooting instruction without timer setting, and in the case of the communication terminal 10 not operating in the “always mode”, the timer setting It is good to give some shooting instructions.

なお、制御サーバ20は、上述した撮影指示に関する設定を、複数のモードで管理しておき、通信端末10の端末識別情報からどのモードで動作している通信端末10か特定して、モードに応じた撮影指示を行っても良い。   The control server 20 manages the settings relating to the above-mentioned shooting instruction in a plurality of modes, identifies the mode in which the communication terminal 10 is operating from the terminal identification information of the communication terminal 10, and responds to the mode. You may give a shooting instruction.

通信端末10は、予めユーザの顔画像を制御サーバ20に登録しておいても良い。この場合、制御サーバ20は、撮像機器30に撮影指示を行うとき、ユーザの顔画像も併せて送信し、撮像機器30においてユーザの顔検出ができたタイミングで撮影するよう指示する。   The communication terminal 10 may register the face image of the user in the control server 20 in advance. In this case, when instructing the imaging device 30 to take a picture, the control server 20 also transmits the face image of the user together and instructs the imaging device 30 to take a picture at the timing when the user's face is detected.

通信端末10は、制御サーバ20から各撮像機器30−1〜30−2により撮影した撮影画像を逐次取得しても良く、制御サーバ20が通信端末10ごとに保持していた撮影画像を閲覧した後、まとめて取得しても良い。例えば、通信端末10が、制御サーバ20に対して、閲覧した撮影画像のうち選択した撮影画像のアルバム作成を要求して、制御サーバ20から所定のショップにアルバム作成を要求する。   The communication terminal 10 may sequentially acquire photographed images photographed by the respective imaging devices 30-1 to 30-2 from the control server 20, and browsed the photographed images held by the control server 20 for each communication terminal 10. You may collect it later. For example, the communication terminal 10 requests the control server 20 to create an album of a selected shot image among the shot images browsed, and the control server 20 requests the predetermined shop to create an album.

この場合には、通信端末10は、例えばアルバム作成の課金情報や、作成予定時刻、商品番号等を、制御サーバ20を介してショップから受け取り、ユーザがそのショップにアルバムを受け取りに行っても良い。   In this case, the communication terminal 10 may receive, for example, billing information for album creation, a scheduled creation time, a product number, and the like from the shop via the control server 20, and the user may receive the album at the shop. .

なお、所定のサーバ(例えばフォトショップ(登録商標)用)を設置しておき、例えば制御サーバ20は、第1実施形態又は変形例で、通信端末10の端末識別情報と併せて撮像機器30が撮影した撮影画像をフォトショップ用のサーバに送信する処理内容を設定しても良い。フォトショップ用のサーバは、制御サーバ20から通信端末10の端末識別情報に関連付けて受信した撮影画像を記憶して管理しておく。   Note that a predetermined server (for example, for Photoshop (registered trademark)) is installed, and for example, in the control server 20, the imaging device 30 is combined with the terminal identification information of the communication terminal 10 in the first embodiment or the modification. It is also possible to set processing content for transmitting the photographed image to the server for Photoshop. The server for Photoshop stores and manages the photographed image received from the control server 20 in association with the terminal identification information of the communication terminal 10.

通信端末10は、ユーザ操作によりインストールしたフォトショップ用のアプリケーションが起動すると、フォトショップ用のサーバにアクセスし、通信端末10の端末識別情報を送信することで、対応する撮影画像を閲覧可能とする。   The communication terminal 10 accesses the server for Photoshop when the installed application for Photoshop is activated by user operation, and transmits the terminal identification information of the communication terminal 10 to enable browsing of the corresponding photographed image. .

フォトショップ用のサーバは、通信端末10から、ユーザが閲覧した撮影画像うち選択した撮影画像のアルバム作成要求を受けると、上述した課金処理を行う。その後、ユーザがアルバムをショップに受け取りに行くことで、利便的にアプリケーションを利用することも可能となる。   When the server for photo shop receives a request for creating an album of the selected photographed image among the photographed images browsed by the user from the communication terminal 10, the server performs the charging process described above. Thereafter, when the user goes to the shop to receive the album, the application can be conveniently used.

<第2実施形態>
<機器制御システム:概略構成>
図8は、第2実施形態に係る機器制御システムの概略構成の一例を示す図である。図8に示す第2実施形態は、図1に示す第1実施形態と機器識別音を発している機器が異なり、制御サーバ20が機器識別音に対応して実行する処理が異なる。以下、異なる点を中心に説明する。
Second Embodiment
<Device control system: schematic configuration>
FIG. 8 is a diagram showing an example of a schematic configuration of the device control system according to the second embodiment. The second embodiment shown in FIG. 8 is different from the first embodiment shown in FIG. 1 in the device that emits the device identification sound, and in the processing that the control server 20 executes in response to the device identification sound. Hereinafter, differences will be mainly described.

図8に示すように、機器制御システム2は、通信端末10と、制御サーバ20と、サイネージ50とを有するように構成される。通信端末10と、制御サーバ20と、サイネージ50とは、例えばインターネット、無線LAN、Bluetooh(登録商標)等に代表される通信ネットワークにより接続されている。   As shown in FIG. 8, the device control system 2 is configured to have the communication terminal 10, the control server 20, and the signage 50. The communication terminal 10, the control server 20, and the signage 50 are connected by a communication network represented by, for example, the Internet, a wireless LAN, Bluetooh (registered trademark) or the like.

サイネージ50は、例えば電子看板や、デジタル通信で表示内容を切り替え可能な広告媒体であり、例えば動画等のコンテンツを出力するコンテンツ出力機器である。図8の例では、サイネージ50は、例えば展示会等に設置され、例えばCMやキャンペーン広告等のコンテンツを出力し、周囲のユーザに対してコンテンツを提示している。   The signage 50 is, for example, an electronic signboard or an advertising medium whose display content can be switched by digital communication, and is, for example, a content output device that outputs content such as a moving image. In the example of FIG. 8, the signage 50 is installed, for example, at a trade show, and outputs contents such as CM and a campaign advertisement, for example, and presents the contents to surrounding users.

サイネージ50によりコンテンツに対応して所定の範囲に出力される音には、例えばサイネージ50を識別するための機器識別音が含まれている。なお、サイネージ50により出力されるコンテンツは、制御サーバ20で管理し、制御サーバ20からサイネージ50に対してコンテンツを送信して再生させても良い。   The sound output to a predetermined range corresponding to the content by the signage 50 includes, for example, a device identification sound for identifying the signage 50. The content output by the signage 50 may be managed by the control server 20, and the content may be transmitted from the control server 20 to the signage 50 and reproduced.

通信端末10は、サイネージ50の設置場所で、ユーザの「振る」等の動作を検知すると、サイネージ50が出力しているコンテンツに含まれる機器識別音を収集する。また、通信端末10は、収集した機器識別音と通信端末10の端末識別情報とを制御サーバ20に送信する(図8に示す(1))。   When the communication terminal 10 detects an operation such as “shake” of the user at the installation place of the signage 50, the communication terminal 10 collects the device identification sound included in the content output by the signage 50. Also, the communication terminal 10 transmits the collected device identification sound and the terminal identification information of the communication terminal 10 to the control server 20 ((1) shown in FIG. 8).

制御サーバ20は、通信端末10から取得した機器識別音を解析し、機器識別音に対応する機器がサイネージ50であると判定すると、サイネージ50に対応する処理として、出力していたコンテンツに関連する情報等を通信端末10に送信する(図8に示す(2))。   When the control server 20 analyzes the device identification sound acquired from the communication terminal 10 and determines that the device corresponding to the device identification sound is the signage 50, the control server 20 relates to the content being output as the processing corresponding to the signage 50. Information and the like are transmitted to the communication terminal 10 ((2) shown in FIG. 8).

ここで、コンテンツに関連する情報とは、例えばクーポン券、アンケート、コンテンツで表示されている店情報等の付加情報であるが、これに限定されるものではない。   Here, the information related to the content is, for example, additional information such as a coupon, a questionnaire, store information displayed as the content, but is not limited to this.

なお、サイネージ50は、予め日時等を指定してコンテンツを出力することが可能である。例えば、制御サーバ20は、予めサイネージ50で出力されているコンテンツを、コンテンツ出力日時(例えば期間や時間帯等)と対応付けて管理しておく。   The signage 50 can output contents by designating a date and time in advance. For example, the control server 20 manages, in advance, the content output by the signage 50 in association with the content output date and time (for example, a period or a time zone).

制御サーバ20は、通信端末10から機器識別音と併せて、機器識別音を取得した日時情報が送信されてきた場合には、機器識別音からサイネージ50を特定する。また、制御サーバ20は、特定したサイネージ50のコンテンツ出力日時の情報と、通信端末10から取得した日時情報とに基づいて、出力されているコンテンツを判定しても良い。   The control server 20 specifies the signage 50 from the device identification sound when the date and time information of acquiring the device identification sound is transmitted from the communication terminal 10 together with the device identification sound. In addition, the control server 20 may determine the output content based on the information of the content output date and time of the specified signage 50 and the date and time information acquired from the communication terminal 10.

また、サイネージ50は、例えば図8に示すように画面51によりコンテンツを出力しているが、画面51に対する表示内容を変更することが可能である。例えば、制御サーバ20は、サイネージ50が出力しているコンテンツに関連する情報として、通信端末10に送信するアンケート回答用のファイル(表示データ)等を用意しておき、通信端末10にそのファイルを送信して、アンケート回答画面表示させる。通信端末10のユーザは、例えば表示されたアンケートにタッチ操作等により回答し、回答結果を制御サーバ20に送信する(図8に示す(3))。   In addition, although the signage 50 outputs the content on the screen 51 as shown in FIG. 8, for example, the display content on the screen 51 can be changed. For example, the control server 20 prepares a file (display data) for a questionnaire response to be transmitted to the communication terminal 10 as information related to the content output by the signage 50, and the file is transmitted to the communication terminal 10. Send it and display the questionnaire response screen. The user of the communication terminal 10 answers, for example, the displayed questionnaire by a touch operation or the like, and transmits the answer result to the control server 20 ((3) shown in FIG. 8).

制御サーバ20は、通信端末10からアンケートの回答結果を取得すると、回答結果を集計して、サイネージ50の画面51に集計内容を出力又は更新するよう指示しても良い((図8に示す(4)))。このとき、制御サーバ20は、例えばサイネージ50の画面51を広告画面と集計画面とに分けて構成し、広告画面にコンテンツを出力し、集計画面にコンテンツに関連するアンケートの集計結果を出力するように、サイネージ50に対して指示する。   When the control server 20 acquires the answer results of the questionnaire from the communication terminal 10, the control server 20 may totalize the answer results and may instruct the screen 51 of the signage 50 to output or update the total contents ((see FIG. 4)). At this time, for example, the control server 20 divides the screen 51 of the signage 50 into an advertisement screen and a tabulation screen, outputs content to the advertisement screen, and outputs a tabulation result of questionnaires related to the content to the tabulation screen. To the signage 50.

制御サーバ20は、サイネージ50が広告画面を投影するプロジェクタと集計画面を投影するプロジェクタとの複数台のプロジェクタにより構成されている場合には、集計画面を投影するプロジェクタに集計結果を更新した表示画面データを送信し投影させても良い。このとき、制御サーバ20は、投影指示を行うプロジェクタの送信先(IPアドレス等)を保持しているものとする。   When the control server 20 is configured by a plurality of projectors including a projector that projects the advertisement screen and a projector that projects the aggregation screen, the control server 20 is a display screen in which the aggregation result is updated to the projector that projects the aggregation screen. Data may be transmitted and projected. At this time, it is assumed that the control server 20 holds the transmission destination (IP address or the like) of the projector that issues the projection instruction.

なお、アンケートの回答はユーザの任意となるため、制御サーバ20は、アンケートの回答が得られた通信端末10に対して、例えば回答結果に応じたクーポンを送信して、ユーザの回答意欲を向上させるような仕組みを構築しても良い。例えば、アンケートの内容が「商品Aと商品Bのどちらが好きか?」等の場合に、通信端末10から商品Aが選択された回答を得ると、制御サーバ20は商品Aの割引クーポン(クーポン画面の表示データ)を送信して、ユーザの趣向に合った情報を提供しても良い。   In addition, since the answer of the questionnaire is optional by the user, the control server 20 transmits, for example, a coupon according to the answer result to the communication terminal 10 for which the answer of the questionnaire is obtained, thereby improving the user's willingness to answer You may build a mechanism that For example, in the case where the content of the questionnaire is “which product A or product B do you like?” And the like, when the answer that the product A is selected is obtained from the communication terminal 10, the control server 20 receives the discount coupon of the product A (1) display data) may be transmitted to provide information suited to the taste of the user.

このとき、制御サーバ20には、処理内容(ワークフロー)として通信端末10へのファイル送信(例えばアンケート画面)、回答集計、サイネージ50への投影指示に加えて、通信端末10へのファイル(クーポン画面)送信が追加される。なお、制御サーバ20には、回答結果に応じたファイル(クーポン画面)が予め登録され、通信端末10から取得した回答結果に応じたファイルを、通信端末10に送信して、表示させると良い。   At this time, the control server 20 sends a file to the communication terminal 10 (coupon screen, in addition to file transmission (for example, questionnaire screen) to the communication terminal 10 as processing content (workflow), answer aggregation, and projection instruction to signage 50. ) Transmission is added. In the control server 20, a file (coupon screen) corresponding to the answer result may be registered in advance, and a file corresponding to the answer result acquired from the communication terminal 10 may be transmitted to the communication terminal 10 and displayed.

上述したように、制御サーバ20は、サイネージ50を制御して、通信端末10とサイネージ50とをリアルタイムに連携させることが可能となる。   As described above, the control server 20 can control the signage 50 to allow the communication terminal 10 and the signage 50 to cooperate in real time.

<第2実施形態:機器制御シーケンス>
図9は、第2実施形態に係る制御シーケンスの一例を示す図である。図9に示す制御シーケンスのS21〜S24は、図6に示す制御シーケンスのS11〜S14と同様の処理であるため省略し、以下、異なる処理の部分を中心に説明する。
Second Embodiment Device Control Sequence
FIG. 9 is a diagram showing an example of a control sequence according to the second embodiment. Steps S21 to S24 in the control sequence shown in FIG. 9 are the same as steps S11 to S14 in the control sequence shown in FIG.

なお、図9に示すS23の処理では、通信端末10が、収集した機器識別音を、通信端末10の端末識別情報と併せて制御サーバ20に送信する際、機器識別音を収集した日時情報も併せて送信すると良い。   In the process of S23 shown in FIG. 9, when the communication terminal 10 transmits the collected device identification sound together with the terminal identification information of the communication terminal 10 to the control server 20, the date and time information at which the device identification sound was collected is also It is good to send together.

制御サーバ20は、処理実行手段24により、通信端末10から取得した機器識別音により対応する機器がサイネージ50であると判定すると(S25)、機器識別音に対応して予め設定されている処理内容を判定する(S26)。   When the control server 20 determines that the corresponding device is the signage 50 by the device identification sound acquired from the communication terminal 10 by the processing execution means 24 (S25), the processing content set in advance corresponding to the device identification sound Is determined (S26).

ここで、予め設定されている処理内容として、例えば「サイネージ50から出力されているコンテンツに関連するファイル(例えばアンケート)を通信端末10に送信して通信端末10から回答を得ること」とする。この場合、制御サーバ20は、通信端末10に対して送信するファイルを判定する(S27)。なお、制御サーバ20は、通信端末10から取得した日時情報に基づき送信するファイルを判定しても良い。   Here, for example, “a file (for example, a questionnaire) related to the content output from the signage 50 is transmitted to the communication terminal 10 to obtain an answer from the communication terminal 10 as the processing content set in advance. In this case, the control server 20 determines a file to be transmitted to the communication terminal 10 (S27). The control server 20 may determine the file to be transmitted based on the date and time information acquired from the communication terminal 10.

次に、制御サーバ20は、通信端末10に対してファイルを送信し(S28)、通信端末10がファイルに対する回答を送信すると(S29)、制御サーバ20は、回答に基づき集計を行う(S30)。次に、制御サーバ20は、サイネージ50に対して出力内容の指示を行うと(S31)、サイネージ50は、指示に基づき、画面に出力を行う(S32)。   Next, when the control server 20 transmits a file to the communication terminal 10 (S28), and the communication terminal 10 transmits an answer to the file (S29), the control server 20 performs aggregation based on the answer (S30). . Next, when the control server 20 instructs the signage 50 to output contents (S31), the signage 50 outputs the screen on the basis of the instruction (S32).

上述したように、第2実施形態において、通信端末10は、サイネージ50の近くで「振る」動作を行うと、制御サーバ20からコンテンツに関連する情報を取得することが可能となる。また、第2実施形態では、通信端末10とサイネージ50とが連携して、制御サーバ20によりサイネージ50の出力内容を制御したりすることが可能となる。   As described above, in the second embodiment, when the communication terminal 10 performs the “shake” operation near the signage 50, the communication terminal 10 can acquire the information related to the content from the control server 20. Moreover, in the second embodiment, the communication terminal 10 and the signage 50 can cooperate with each other to control the output content of the signage 50 by the control server 20.

<制御サーバが保持する情報例>
図10は、制御サーバが保持する情報の一例を示す図である。なお、図10は、上述した実施形態又は変形例において、これらを包括したシステムを構成する場合に用いられる情報である。
<Example of information held by control server>
FIG. 10 is a diagram showing an example of information held by the control server. In addition, FIG. 10 is information used when comprising the system which included these in embodiment or modification mentioned above.

図10(A)は、機器識別音に対応する処理内容の判定テーブルの一例を示している。図10(B)は、通信端末10から取得した情報をテーブルで表したものである。   FIG. 10A shows an example of the determination table of the processing content corresponding to the device identification sound. FIG. 10 (B) shows the information acquired from the communication terminal 10 in the form of a table.

図10(A)に示すテーブルは、例えば「機器」、「音情報」、「位置条件」、「日時条件」、「対象データ」、「処理内容」等の項目を有しているがこれには限定されない。   The table shown in FIG. 10A has items such as “device”, “sound information”, “position condition”, “date and time condition”, “target data”, “processing content”, etc. Is not limited.

例えば、「機器」には、制御サーバ20により所定の処理を実行するよう制御される機器が示されている。「音情報」には、「機器」を識別するための機器識別情報(例えば「音1」→「1111」)が示されている。「位置条件」には、「機器」が設置されている位置情報(例えば「領域1」等)が示されている。   For example, “device” indicates a device controlled by the control server 20 to execute a predetermined process. The “sound information” indicates device identification information (for example, “sound 1” → “1111”) for identifying the “device”. The “position condition” indicates position information (for example, “area 1” and the like) where the “device” is installed.

また、「日時条件」と、「対象データ」とは、制御サーバ20が「処理内容」を実行するときに用いられる情報である。制御サーバ20は、「音情報」、「位置条件」、「日時条件」の各項目を用いて、「機器」、「対象データ」、「処理内容」を特定するが、「位置条件」、「日時条件」については必須ではなく、これらの条件を利用したい場合に判定テーブルに登録されれば良い。   The “date and time condition” and the “target data” are information used when the control server 20 executes the “process content”. The control server 20 specifies “device”, “target data” and “process content” using the “sound information”, “position condition” and “date and time condition” items, but “position condition” and “position condition” The “date and time condition” is not essential, and it may be registered in the determination table when it is desired to use these conditions.

また、「処理内容」には、例えば処理を行う対象となる「機器」や、通信端末10、予め設定された特定の装置等へ実行する処理の内容が定義されている。図10(A)の例では、実行する処理の順序が、例えばワークフローで設定されている例を示している。また、各処理については、処理の動作内容、処理を行う対象の機器(すなわち「機器」や、通信端末10、予め設定された特定の装置等)、対象データを利用するか、処理の動作設定(タイマーのON/OFF等)等の各種パラメータが必要に応じて定義される。   Further, in the “process content”, for example, the “apparatus” which is the target of the process, the content of the process to be executed to the communication terminal 10, the specific device set in advance, and the like are defined. The example of FIG. 10A shows an example in which the order of processing to be executed is set by, for example, a workflow. Also, for each process, the operation content of the process, the device to which the process is to be performed (that is, the “device”, the communication terminal 10, the specific device set in advance, etc.) Various parameters such as (timer ON / OFF etc.) are defined as necessary.

図10(B)に示すテーブルは、例えば「端末識別情報」、「音情報」、「位置情報」、「日時情報」、「利用モード」等の項目を有しているがこれには限定されない。   The table shown in FIG. 10B has items such as “terminal identification information”, “sound information”, “position information”, “date and time information”, and “use mode”, for example, but is not limited thereto. .

例えば、「端末識別情報」は、通信端末10と通信するための情報(端末IPアドレス等)である。「音情報」は、通信端末10が取得した機器識別音から抽出された機器識別情報である。「位置情報」は、通信端末10が受信した位置情報である。「日時情報」は、機器識別音を収集したときの日時情報である。   For example, “terminal identification information” is information (terminal IP address or the like) for communicating with the communication terminal 10. The “sound information” is device identification information extracted from the device identification sound acquired by the communication terminal 10. “Position information” is position information received by the communication terminal 10. “Date and time information” is date and time information when the device identification sound is collected.

なお、「利用モード」は、例えば「振るモード」と「常時モード」等があり、上述したように処理内容の設定に用いられる。「振るモード」では、「処理内容」が実行されると処理を終了する。「常時モード」では、例えば再度「振るモード」が検知されるまで、常時起動した状態で「処理内容」の実行を続ける。   The “use mode” includes, for example, “shake mode” and “always mode”, and is used to set the processing content as described above. In the "shake mode", the process ends when the "process content" is executed. In the "always mode", for example, the "processing content" is continuously executed in the constantly activated state until the "shake mode" is detected again.

制御サーバ20は、図10(B)に示す情報に基づき、図10(A)に示すテーブルから対応する処理内容を判定し、処理内容を実行する。なお、包括したシステムを構築するような場合には、図10(B)に示す項目は、条件判定により利用する項目が異なるため、通信端末10には、条件判定に利用される情報を制御サーバ20に送信するよう、通信端末10にインストールされるアプリケーションに実装しておくと良い。   The control server 20 determines the corresponding processing content from the table shown in FIG. 10 (A) based on the information shown in FIG. 10 (B), and executes the processing content. In the case of constructing a comprehensive system, the items shown in FIG. 10 (B) are different in the items to be used according to the condition determination, so that the communication terminal 10 controls the information used for the condition determination It is good to implement in the application installed in the communication terminal 10 so that it may transmit to 20. FIG.

ここで、上述した図10に示す情報を用いて、制御サーバ20により実行される内容について説明する。例えば、制御サーバ20は、通信端末10から取得した機器識別音を解析して、抽出された機器識別情報が「音1」であると判定すると、図10(A)に示すテーブルから、「音1」に対応する「機器」が「撮像機器30−1」であると判定する。また、制御サーバ20は、「処理内容」が「撮影→データ保存→送信」であると判定する。   Here, contents executed by the control server 20 will be described using the information shown in FIG. 10 described above. For example, when the control server 20 analyzes the device identification sound acquired from the communication terminal 10 and determines that the extracted device identification information is "sound 1", the control server 20 determines from the table shown in FIG. It is determined that the "device" corresponding to 1 "is the" imaging device 30-1. " Further, the control server 20 determines that the “processing content” is “shooting → data storage → transmission”.

なお、制御サーバ20は、例えば通信端末10から位置情報を取得した場合には、取得した位置情報と、判定した「撮像機器30−1」の「位置条件」とが対応しているか判定する。例えば、通信端末10から取得した位置情報が「領域1」である場合には、「撮像機器30−1」の「位置条件」である「領域1」と一致しているため、機器識別音に対応する機器が「撮像機器30−1」であると判定することが可能となる。このように、機器識別音に対応する機器をより精度良く判定することが可能となる。   For example, when the position information is acquired from the communication terminal 10, the control server 20 determines whether the acquired position information corresponds to the “position condition” of the determined “imaging device 30-1”. For example, when the position information acquired from the communication terminal 10 is “area 1”, it corresponds to “area 1” which is the “position condition” of “imaging device 30-1”, so the device identification sound is It is possible to determine that the corresponding device is the “imaging device 30-1”. As described above, it is possible to more accurately determine the device corresponding to the device identification sound.

また、制御サーバ20は、機器識別音から抽出された機器識別情報が「音3」であると判定すると、「音3」に対応する「機器」が「サイネージ50−1」であると判定し、「処理内容」を実行するため、「対象データ」が「ファイル1」か「ファイル2」か判定する。   Further, when the control server 20 determines that the device identification information extracted from the device identification sound is “sound 3”, it determines that the “device” corresponding to “sound 3” is “signage 50-1”. To execute "process content", it is determined whether "target data" is "file 1" or "file 2".

ここで、制御サーバ20は、通信端末10から取得した日時情報が「3/3 10:00」である場合には、「対象データ」は「ファイル1」であると判定し、「ファイル1」を通信端末10に送信するよう制御する。   Here, when the date and time information acquired from the communication terminal 10 is “3/3 10:00”, the control server 20 determines that “target data” is “file 1”, and “file 1”. Are controlled to be transmitted to the communication terminal 10.

上述したように、制御サーバ20は、通信端末10から取得した機器識別音等に基づき、機器識別音を発した機器に対応する処理を実行することが可能となる。   As described above, the control server 20 can execute processing corresponding to the device that has generated the device identification sound, based on the device identification sound and the like acquired from the communication terminal 10.

<その他の実施形態例>
上述した図1〜図10に示す機器制御システム1〜2では、制御サーバ20により通信端末10が取得した機器識別音に対応する処理を実行させているがこれには限定されない。
<Other Embodiments>
In the device control systems 1 and 2 shown in FIGS. 1 to 10 described above, the process corresponding to the device identification sound acquired by the communication terminal 10 is executed by the control server 20, but the invention is not limited thereto.

例えば、通信端末10は、操作画面上に表示したアプリケーションのうち、上述したユーザによる「振る」動作等を検知して、所定の処理を実行するアプリケーションが起動すると、以下のように処理を進めても良い。   For example, when the communication terminal 10 detects the above-mentioned “shake” operation by the user among the applications displayed on the operation screen, and the application for executing the predetermined process is activated, the process proceeds as follows. Also good.

例えば上述した図1や図8の例では、通信端末10は、制御サーバ20を介して撮像機器30や、サイネージ50に処理を実行させるが、これらの機器と直接接続して処理を実行させても良い。   For example, in the examples of FIG. 1 and FIG. 8 described above, the communication terminal 10 causes the imaging device 30 and signage 50 to execute processing via the control server 20, but directly connects these devices to execute processing. Also good.

そこで、通信端末10は、例えば上述したアプリケーションが起動した場合に、操作画面上で「直接通信する」、「直接通信しない」等をユーザに選択させる。通信端末10は、「直接通信しない」等が選択された場合には、上述した制御サーバ20を介した処理を選択して実行する。   Therefore, when the above-described application is activated, for example, the communication terminal 10 causes the user to select “directly communicate”, “do not directly communicate”, or the like on the operation screen. When “do not directly communicate” is selected, the communication terminal 10 selects and executes the processing via the control server 20 described above.

通信端末10は、「直接通信する」が選択された場合には、機器から発せられている機器ごとに異なる音(例えば機器に接続するための接続情報が含まれた音)に基づき直接通信し、連携した機器に対して処理を実行させる。これにより、上述した機器だけでなく、例えばMFP(Multifunction Peripheral)やプロジェクタ等の場合には、通信端末10からデータを送信して出力させる処理を実行させることが可能となる。   When “directly communicate” is selected, the communication terminal 10 directly communicates based on a different sound for each device emitted from the device (for example, a sound including connection information for connecting to the device). Execute the process on the linked device. As a result, in the case of not only the above-described device but, for example, an MFP (Multifunction Peripheral) or a projector, it is possible to execute processing for transmitting and outputting data from the communication terminal 10.

上述した実施形態によれば、簡単な操作で所定の場所にある所定の機器に応じた処理を実行させることが可能となる。なお、上述した機器制御システムにおいて、制御サーバ20を複数台で構成し、ネットワークを介して接続された各サーバ装置が分散して処理を行うようにしても良い。   According to the embodiment described above, it is possible to execute processing according to a predetermined device in a predetermined place with a simple operation. In the device control system described above, a plurality of control servers 20 may be configured, and each server device connected via a network may perform processing in a distributed manner.

例えば、1以上のサーバ装置がネットワークを介して接続され、連携して処理を行うように制御された制御システムにより、通信端末10や、撮像機器30、サイネージ50、又は外部システム上のサーバ装置等に対して処理を行わせても良い。制御サーバ20は、サーバ装置に限定されずPC(Personal Computer)等で実現されても良く、上述した制御システムは、1以上の情報処理装置によって構成されていれば良い。   For example, the communication terminal 10, the imaging device 30, the signage 50, or a server device on an external system by a control system in which one or more server devices are connected via a network and controlled to perform processing in cooperation with one another. Processing may be performed. The control server 20 is not limited to the server device and may be realized by a PC (Personal Computer) or the like, and the control system described above may be configured by one or more information processing devices.

以上、開示の技術の好ましい実施形態について詳述したが、開示の技術に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された開示の技術の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiments of the disclosed technology have been described in detail, the present invention is not limited to the specific embodiments according to the disclosed technology, but within the scope of the disclosed technology described in the claims. Various modifications and changes are possible.

1,2 機器制御システム
10 通信端末
11,21 入力手段
12,22 出力手段
13 動作検知手段
14 音収集手段
15 記憶手段
16 位置情報受信手段
17 通信手段
18、27 制御手段
20 制御サーバ
23 音解析手段
24 処理実行手段
25 記憶手段
26 通信手段
30 撮像機器
31 タッチセンサ
32 タッチパネルディスプレイ
33,46 CPU
34,44 ROM
35,45 RAM
36 記憶装置
37 加速度センサ
38 位置情報受信装置
39 音声入力装置
40,47 インターフェース装置
41 入力装置
42 表示装置
43 HDD
48 ドライブ装置
48A 記録媒体
50 サイネージ
1, 2 Equipment control system 10 Communication terminal 11, 21 Input means 12, 22 Output means 13 Operation detection means 14 Sound collection means 15 Storage means 16 Position information reception means 17 Communication means 18, 27 Control means 20 Control server 23 Sound analysis means 24 processing execution means 25 storage means 26 communication means 30 imaging device 31 touch sensor 32 touch panel display 33, 46 CPU
34, 44 ROM
35,45 RAM
36 storage device 37 acceleration sensor 38 position information receiving device 39 voice input device 40, 47 interface device 41 input device 42 display device 43 HDD
48 drive unit 48A recording medium 50 signage

特開2006−163794号公報Unexamined-Japanese-Patent No. 2006-163794

Claims (10)

所定の範囲内に存在するユーザを対象に実行する処理と、装置から発せられる識別情報と、を関連付けて記憶装置に登録する登録ステップと、
通信端末を所持して移動するユーザが前記装置の設置されている場所から前記所定の範囲内にまで近付いたことで、当該通信端末が当該装置の発する前記識別情報を取得する取得ステップと、
当該識別情報に基づき特定される処理を実行させるため、当該通信端末が当該識別情報を情報処理装置に送信する送信ステップと、
前記送信ステップにより送信された当該識別情報に関連付いて登録されている処理を特定する特定ステップと、
前記特定ステップにより特定された処理の実行を制御する処理制御ステップと、
を有し、
前記処理制御ステップは、前記所定の範囲内を撮影する撮影機能が起動されるよう制御し、当該所定の範囲内に存在する前記ユーザが撮影された画像を当該ユーザに閲覧可能に提供する処理制御方法。
A registration step of correlating a process for executing a user existing within a predetermined range with identification information issued from the device and registering the associated information in the storage device;
An acquisition step in which the communication terminal acquires the identification information emitted by the device when the user moving in possession of the communication terminal approaches from the location where the device is installed to within the predetermined range;
A transmitting step in which the communication terminal transmits the identification information to the information processing apparatus in order to execute a process specified based on the identification information;
An identifying step of identifying a process registered in association with the identification information transmitted by the transmitting step;
A process control step for controlling the execution of the process specified by the specific step;
I have a,
The process control step controls so as to activate an imaging function for imaging the predetermined range, and process control for providing the user the image captured by the user within the predetermined range so as to be viewable to the user Method.
前記識別情報を発する前記装置が施設内に複数設置され、当該施設内を移動する前記ユーザの所持する前記通信端末と連携してサービスを提供するシステムにおける前記処理制御方法であって、
前記送信ステップは、前記複数の装置のうちいずれの装置から得られたかを識別できる前記識別情報を、前記通信端末から前記情報処理装置に送信する
請求項1に記載の処理制御方法。
The processing control method in a system in which a plurality of the devices emitting the identification information are installed in a facility and provides a service in cooperation with the communication terminal possessed by the user moving in the facility,
The process control method according to claim 1, wherein the transmission step transmits the identification information capable of identifying which one of the plurality of devices is obtained from the communication terminal to the information processing device.
前記取得ステップは、前記識別情報を取得するために前記ユーザの所持する前記通信端末に搭載されている機能を継続して起動させておくことで、当該通信端末を所持して移動するユーザが前記装置から前記所定の範囲内にまで近付いたことにより、前記識別情報を取得する
請求項1又は請求項2に記載の処理制御方法。
In the acquisition step, a user who moves and holds the communication terminal keeps the function installed in the communication terminal held by the user in order to obtain the identification information. The process control method according to claim 1 or 2 , wherein the identification information is acquired by approaching from the device to the predetermined range.
前記処理制御ステップは、前記ユーザの所持する前記通信端末を介して、当該ユーザに情報を提供する第1提供ステップを有する
請求項1から請求項までのいずれか1項に記載の処理制御方法。
The process control method according to any one of claims 1 to 3 , wherein the process control step includes a first providing step of providing information to the user via the communication terminal possessed by the user. .
画面を介して前記ユーザにコンテンツを提示する提示ステップと、
前記第1提供ステップにより情報が提供された前記通信端末を介して前記ユーザからの応答を受信する受信ステップと、
前記受信ステップにより1以上の前記ユーザから返された前記応答から得られた結果を前記画面に表示する表示ステップと、
前記応答を送信した前記通信端末に対して、更に情報を提供する第2提供ステップと、
を有する請求項に記載の処理制御方法。
Presenting the content to the user via a screen;
Receiving a response from the user via the communication terminal for which information has been provided by the first providing step;
Displaying on the screen a result obtained from the response returned from the one or more users by the receiving step;
A second providing step of providing further information to the communication terminal that has sent the response;
The process control method according to claim 4 , comprising:
ユーザの所持する通信端末と、識別情報を発する装置と、前記通信端末と通信可能に接続する情報処理装置と、を含み、前記ユーザの移動に応じて処理を制御する処理制御システムであって、
所定の範囲内に存在する前記ユーザを対象に実行する処理と、前記装置から発せられる前記識別情報と、を関連付けて記憶装置に登録する登録手段と、
前記通信端末を所持して移動する前記ユーザが前記装置の設置されている場所から前記所定の範囲内にまで近付いたことで、当該通信端末が当該装置の発する前記識別情報を取得する取得手段と、
当該識別情報に基づき特定される処理を実行させるため、当該通信端末が当該識別情報を前記情報処理装置に送信する送信手段と、
前記送信手段により送信された当該識別情報に関連付いて登録されている前記処理を特定する特定手段と、
前記特定手段により特定された前記処理の実行を制御する処理制御手段と、
を有し、
前記処理制御手段は、前記所定の範囲内を撮影する撮影機能が起動されるよう制御し、当該所定の範囲内に存在する前記ユーザが撮影された画像を当該ユーザに閲覧可能に提供する処理制御システム。
A processing control system that includes a communication terminal possessed by a user, an apparatus that emits identification information, and an information processing apparatus communicably connected to the communication terminal, and controls processing according to the movement of the user,
A registration unit that associates the process of executing for the user existing within a predetermined range with the identification information issued from the device and registers the associated information in a storage device;
Acquisition means for acquiring the identification information emitted by the communication terminal from the device by the user moving in possession of the communication terminal approaching from the location where the device is installed to within the predetermined range; ,
Transmitting means for causing the communication terminal to transmit the identification information to the information processing apparatus in order to execute processing specified based on the identification information;
Specifying means for specifying the process registered in association with the identification information transmitted by the transmission means;
Processing control means for controlling execution of the process specified by the specifying means;
I have a,
The process control means performs control to activate an imaging function for imaging the predetermined range, and process control for providing the user with an image captured by the user within the predetermined range so as to be viewable to the user system.
前記識別情報を発する前記装置が施設内に複数設置され、当該施設内を移動する前記ユーザの所持する前記通信端末と連携してサービスを提供するシステムにおける前記処理制御システムであって、
前記送信手段は、前記複数の装置のうちいずれの装置から得られたかを識別できる前記識別情報を、前記通信端末から前記情報処理装置に送信する
請求項に記載の処理制御システム。
The processing control system in a system in which a plurality of the devices emitting the identification information are installed in a facility and provides a service in cooperation with the communication terminal owned by the user moving in the facility,
7. The process control system according to claim 6 , wherein the transmission means transmits the identification information capable of identifying which one of the plurality of devices is obtained from the communication terminal to the information processing device.
前記取得手段は、前記識別情報を取得するために前記ユーザの所持する前記通信端末に搭載されている機能を継続して起動させておくことで、当該通信端末を所持して移動するユーザが前記装置から前記所定の範囲内にまで近付いたことにより、前記識別情報を取得する
請求項6又は請求項7に記載の処理制御システム。
The acquisition unit continuously activates a function installed in the communication terminal possessed by the user in order to acquire the identification information, whereby a user who moves and holds the communication terminal can The processing control system according to claim 6 or 7 , wherein the identification information is acquired by approaching from the device to the predetermined range.
前記処理制御手段は、前記ユーザの所持する前記通信端末を介して、当該ユーザに情報を提供する第1提供手段を有する
請求項から請求項までのいずれか1項に記載の処理制御システム。
The process control system according to any one of claims 6 to 8 , wherein the process control means has first providing means for providing information to the user via the communication terminal possessed by the user. .
画面を介して前記ユーザにコンテンツを提示する提示手段と、
前記第1提供手段により情報が提供された前記通信端末を介して前記ユーザからの応答を受信する受信手段と、
前記受信手段により1以上の前記ユーザから返された前記応答から得られた結果を前記画面に表示する表示手段と、
前記応答を送信した前記通信端末に対して、更に情報を提供する第2提供手段と、
を有する請求項に記載の処理制御システム。
Presentation means for presenting content to the user via a screen;
Receiving means for receiving a response from the user via the communication terminal provided with information by the first providing means;
Display means for displaying on the screen the result obtained from the response returned from the one or more users by the receiving means;
Second providing means for providing further information to the communication terminal that has sent the response;
The process control system according to claim 9 , comprising:
JP2017133102A 2017-07-06 2017-07-06 Processing control method and processing control system Active JP6424927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017133102A JP6424927B2 (en) 2017-07-06 2017-07-06 Processing control method and processing control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133102A JP6424927B2 (en) 2017-07-06 2017-07-06 Processing control method and processing control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013045786A Division JP6171416B2 (en) 2013-03-07 2013-03-07 Device control system and device control method

Publications (2)

Publication Number Publication Date
JP2017216702A JP2017216702A (en) 2017-12-07
JP6424927B2 true JP6424927B2 (en) 2018-11-21

Family

ID=60577392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133102A Active JP6424927B2 (en) 2017-07-06 2017-07-06 Processing control method and processing control system

Country Status (1)

Country Link
JP (1) JP6424927B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002359877A (en) * 2001-06-01 2002-12-13 Nippon Signal Co Ltd:The System for providing location-related information, information-providing server, communications equipment and information transmitting medium
JP2005136691A (en) * 2003-10-30 2005-05-26 Fuji Photo Film Co Ltd Image managing system
JP2007142896A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
JP2008135993A (en) * 2006-11-28 2008-06-12 Canon Inc Automatic photographing system, its control method, and computer program

Also Published As

Publication number Publication date
JP2017216702A (en) 2017-12-07

Similar Documents

Publication Publication Date Title
WO2019128787A1 (en) Network video live broadcast method and apparatus, and electronic device
CN109040297B (en) User portrait generation method and device
CN110267067B (en) Live broadcast room recommendation method, device, equipment and storage medium
CN109729372B (en) Live broadcast room switching method, device, terminal, server and storage medium
CN106162369A (en) A kind of realize in virtual scene interactive method, Apparatus and system
CN109167937B (en) Video distribution method, device, terminal and storage medium
CN109640125B (en) Video content processing method, device, server and storage medium
CN110210045B (en) Method and device for estimating number of people in target area and storage medium
WO2021148013A1 (en) Interactive data playing method and electronic device
CN112181573A (en) Media resource display method, device, terminal, server and storage medium
CN113473164A (en) Live broadcast data processing method and device, computer equipment and medium
CN109618192B (en) Method, device, system and storage medium for playing video
CN111327953A (en) Live broadcast voting method and device and storage medium
CN111327916A (en) Live broadcast management method, device and equipment based on geographic object and storage medium
CN114302160A (en) Information display method, information display device, computer equipment and medium
JP6171416B2 (en) Device control system and device control method
TW201917556A (en) Multi-screen interaction method and apparatus, and electronic device
JP6424927B2 (en) Processing control method and processing control system
TWI811198B (en) Collection system, terminal program and collection method
CN106572397A (en) Interaction method and device for live video application
CN114554112B (en) Video recording method, device, terminal and storage medium
CN114827651B (en) Information processing method, information processing device, electronic equipment and storage medium
WO2021237592A1 (en) Anchor point information processing method, apparatus and device and storage medium
JP6504210B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP7266911B2 (en) Terminal device and method for collection system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181008

R151 Written notification of patent or utility model registration

Ref document number: 6424927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151