JP6728664B2 - Information processing device, information processing system, and program - Google Patents

Information processing device, information processing system, and program Download PDF

Info

Publication number
JP6728664B2
JP6728664B2 JP2015242678A JP2015242678A JP6728664B2 JP 6728664 B2 JP6728664 B2 JP 6728664B2 JP 2015242678 A JP2015242678 A JP 2015242678A JP 2015242678 A JP2015242678 A JP 2015242678A JP 6728664 B2 JP6728664 B2 JP 6728664B2
Authority
JP
Japan
Prior art keywords
terminal device
information
gesture
unit
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015242678A
Other languages
Japanese (ja)
Other versions
JP2017108359A (en
Inventor
哲治 渡邉
哲治 渡邉
尚之 榎本
尚之 榎本
洋三 鹿島
洋三 鹿島
渡邉 剛
剛 渡邉
鈴木 裕介
裕介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2015242678A priority Critical patent/JP6728664B2/en
Publication of JP2017108359A publication Critical patent/JP2017108359A/en
Application granted granted Critical
Publication of JP6728664B2 publication Critical patent/JP6728664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)
  • Small-Scale Networks (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、情報処理装置、情報処理システム及びプログラムに関する。 The present invention relates to an information processing device, an information processing system and a program.

Wi−Fi通信やBluetooth(登録商標)等の無線通信を利用して複数の装置間で通信が確立される場合がある。 Communication may be established between a plurality of devices using wireless communication such as Wi-Fi communication or Bluetooth (registered trademark).

特許文献1に記載のシステムにおいては、携帯電話等の接続要求元の識別情報が赤外線方式により接続先の機器に予め送付されており、無線LAN上で接続要求元の識別情報を含む探索パケットがブロードキャストされる。接続要求を受けた機器は、赤外線方式により予め設定された接続要求元の識別情報と探索パケットに含まれる識別情報とが同一の場合に、特別なパケットを返送する。接続要求元は、特別なパケットを返送した機器を接続対象の機器として認識し、その機器との間で接続を確立する。 In the system described in Patent Document 1, the identification information of the connection request source such as a mobile phone is sent in advance to the connection destination device by the infrared method, and a search packet including the identification information of the connection request source is transmitted on the wireless LAN. It will be broadcast. The device receiving the connection request returns a special packet when the identification information of the connection request source preset by the infrared method is the same as the identification information included in the search packet. The connection request source recognizes the device that has returned the special packet as the connection target device and establishes a connection with the device.

特開2007−259385号公報JP, 2007-259385, A

ところで、複数の装置が接続対象の候補として存在する場合、当該複数の装置の中からどの装置との間で通信を確立すればよいのか分からない場合がある。これに対処するために、複数の装置の情報を表示し、ユーザが複数の装置の中から接続対象の装置を選択することにより、接続対象の装置が特定される場合がある。しかし、ユーザが接続対象の装置を選択する必要があるのでユーザの手間がかかる。また、候補の数が膨大の場合、その手間が増大する。 By the way, when a plurality of devices exist as candidates for a connection target, it may not be known which of the plurality of devices communication should be established with. In order to deal with this, a device to be connected may be specified by displaying information of a plurality of devices and the user selecting a device to be connected from the plurality of devices. However, the user needs to select the device to be connected, which is troublesome for the user. In addition, when the number of candidates is huge, the labor is increased.

本発明の目的は、複数の端末装置が接続対象の候補として存在する場合において、全候補の中からユーザが接続対象の端末装置を指定する場合と比べて、接続対象の端末装置を容易に特定できるようにすることにある。 An object of the present invention is to easily specify a connection target terminal device when a plurality of terminal devices exist as connection target candidates, as compared with a case where a user specifies a connection target terminal device from all candidates. To be able to do it.

請求項1に係る発明は、ユーザの動きを表すジェスチャーの情報を表示する、タッチパネルを備えた表示手段と、接続対象の端末装置を特定するためのジェスチャーの情報であって端末装置により検出されたジェスチャーの情報を当該端末装置から受信する受信手段と、前記表示手段に表示されたジェスチャーに対する前記表示手段のタッチパネルへの入力を受け付けずに、端末装置の動きとして検出されて前記受信手段により受信されたジェスチャーの情報に基づいて、前記表示手段に表示されたジェスチャーに一致するジェスチャーの動きをした端末装置を接続対象の端末装置として特定する特定手段と、を有する情報処理装置である。 The invention according to claim 1 is a display unit equipped with a touch panel for displaying information on a gesture representing a movement of a user, and gesture information for specifying a terminal device to be connected, which is detected by the terminal device. Receiving means for receiving the information of the gesture from the terminal device, and without receiving an input to the touch panel of the displaying means for the gesture displayed on the displaying means, the gesture is detected as a movement of the terminal device and received by the receiving means. And a specifying unit that specifies, as the terminal device to be connected, the terminal device that has performed the gesture movement that matches the gesture displayed on the display unit, based on the information about the gesture.

請求項2に係る発明は、ジェスチャーの情報を端末装置に要求する要求手段を更に有し、前記受信手段は、前記要求に応じて端末装置により検出されたジェスチャーの情報を当該端末装置から受信する、ことを特徴とする請求項1に記載の情報処理装置である。 The invention according to claim 2 further comprises requesting means for requesting the terminal device for gesture information, and the receiving means receives from the terminal device the gesture information detected by the terminal device in response to the request. The information processing apparatus according to claim 1, wherein:

請求項に係る発明は、前記特定手段は、複数の異なるジェスチャー情報の中から選択されたジェスチャー情報と前記受信されたジェスチャー情報との比較結果に基づいて接続対象の端末装置を特定する、ことを特徴とする請求項に記載の情報処理装置である。 The invention according to claim 3, wherein the specifying unit may identify a target for connection of the terminal device based on the result of comparison between information of the selected gesture information and the received gesture from information of a plurality of different gestures The information processing apparatus according to claim 1 , wherein:

請求項に係る発明は、前記特定手段は、前記複数の異なるジェスチャー情報の中からランダムに選択されたジェスチャー情報又はユーザにより選択されたジェスチャー情報と、前記受信されたジェスチャー情報と、の比較結果に基づいて接続対象の端末装置を特定する、ことを特徴とする請求項に記載の情報処理装置である。 The invention according to claim 4, wherein the specifying unit, and information of the gesture selected by the information or the user of the selected gesture at random from the information of the plurality of different gestures, and information of the received gesture 4. The information processing apparatus according to claim 3 , wherein the terminal device to be connected is specified based on the comparison result of.

請求項に係る発明は、前記特定手段は、前記選択されたジェスチャー情報に一致するジェスチャー情報を検出した端末装置を接続対象の端末装置として特定する、ことを特徴とする請求項又は請求項に記載の情報処理装置である。 The invention according to claim 5, wherein the specifying unit specifies a terminal apparatus which detects information of gestures matching the information of the selected gesture as a target for connection of the terminal device, according to claim 3 or, characterized in that The information processing apparatus according to claim 4 .

請求項に係る発明は、ジェスチャーの情報に基づいて、接続対象となる複数の端末装置が特定された場合、前記特定手段は、当該複数の端末装置の中から、自装置から最短距離にある端末装置を接続対象の端末装置として特定する、ことを特徴とする請求項1から請求項のいずれか一項に記載の情報処理装置である。 In the invention according to claim 6 , when a plurality of terminal devices to be connected are specified based on the gesture information, the specifying means is located at the shortest distance from the own device among the plurality of terminal devices. The terminal device is specified as the terminal device to be connected, and the information processing device according to any one of claims 1 to 5 .

請求項7に係る発明は、情報処理装置と端末装置とを含み、前記情報処理装置は、ユーザの動きを表すジェスチャーの情報を表示する、タッチパネルを備えた表示手段と、接続対象の端末装置を特定するためのジェスチャーの情報を端末装置に要求する要求手段を有し、前記端末装置は、前記要求に応じてジェスチャーの情報を検出する検出手段と、前記検出されたジェスチャーの情報を前記情報処理装置に送信する送信手段と、を有し、前記情報処理装置は、前記端末装置により検出されたジェスチャーの情報を受信する受信手段と、前記表示手段に表示されたジェスチャーに対する前記表示手段のタッチパネルへの入力を受け付けずに、端末装置の動きとして検出されて前記受信手段により受信されたジェスチャーの情報に基づいて、前記表示手段に表示されたジェスチャーに一致するジェスチャーの動きをした端末装置を接続対象の端末装置として特定する特定手段と、を更に有する、情報処理システムである。 The invention according to claim 7 includes an information processing device and a terminal device, wherein the information processing device includes a display unit having a touch panel for displaying information on a gesture representing a movement of a user, and a terminal device to be connected. The terminal device has requesting means for requesting information of a gesture for specifying to the terminal device, and the terminal device detects the information of the gesture in response to the request, and the information processing of the information of the detected gesture. A transmission unit for transmitting to the device, the information processing device includes a reception unit for receiving information on a gesture detected by the terminal device, and a touch panel of the display unit for the gesture displayed on the display unit. The connection target is a terminal device that makes a gesture movement that matches the gesture displayed on the display means based on the information of the gesture that is detected as the movement of the terminal device and is received by the receiving means without accepting the input of The information processing system further includes a specifying unit that specifies the terminal device.

請求項8に係る発明は、コンピュータを、ユーザの動きを表すジェスチャーの情報を、タッチパネルを備えた表示手段に表示させる制御手段、接続対象の端末装置を特定するためのジェスチャーの情報であって端末装置により検出されたジェスチャーの情報を当該端末装置から受信する受信手段、前記表示手段に表示されたジェスチャーに対する前記表示手段のタッチパネルへの入力を受け付けずに、端末装置の動きとして検出されて前記受信手段により受信されたジェスチャーの情報に基づいて、前記表示手段に表示されたジェスチャーに一致するジェスチャーの動きをした端末装置を接続対象の端末装置として特定する特定手段、として機能させるプログラムである。 According to an eighth aspect of the present invention, there is provided a control means for causing a computer to display, on a display means having a touch panel , information on a gesture indicating a user's movement, and gesture information for specifying a terminal device to be connected, which is a terminal Receiving means for receiving the information of the gesture detected by the device from the terminal device, the input to the touch panel of the display device for the gesture displayed on the display device is not accepted, and the reception is detected as the motion of the terminal device. It is a program that causes a terminal device that makes a gesture motion matching the gesture displayed on the display device to be specified as a connection target terminal device based on the gesture information received by the device.

請求項1,2,7,8に係る発明によると、複数の端末装置が接続対象の候補として存在する場合において、全候補の中からユーザが接続対象の端末装置を指定する場合と比べて、接続対象の端末装置を容易に特定することが可能となる。 According to the inventions according to claims 1, 2, 7 and 8 , when a plurality of terminal devices are present as connection target candidates, compared with the case where the user specifies the connection target terminal device from all candidates, It is possible to easily specify the terminal device to be connected.

請求項に係る発明によると、同一のジェスチャー情報が利用される場合と比べて、セキュリティが向上する。 According to the inventions according to claims 3 , 4 , and 5 , the security is improved as compared with the case where the same gesture information is used.

請求項に係る発明によると、画像形成装置を利用しようとするユーザの端末装置が特定される。 According to the invention of claim 6 , the terminal device of the user who intends to use the image forming apparatus is specified.

本発明の第1実施形態に係る画像形成システムを示すブロック図である。FIG. 1 is a block diagram showing an image forming system according to a first embodiment of the present invention. 第1本実施形態に係る画像形成装置を示すブロック図である。FIG. 3 is a block diagram showing an image forming apparatus according to the first exemplary embodiment. 第1実施形態に係る端末装置を示すブロック図である。It is a block diagram which shows the terminal device which concerns on 1st Embodiment. ジェスチャー情報の一例を示す図である。It is a figure which shows an example of gesture information. 第1実施形態に係る画像形成システムによる処理の一例を示すシーケンス図である。It is a sequence diagram showing an example of a process by the image forming system according to the first embodiment. 第2実施形態に係る画像形成装置を示すブロック図である。FIG. 6 is a block diagram showing an image forming apparatus according to a second embodiment. 第2実施形態に係る端末装置を示すブロック図である。It is a block diagram which shows the terminal device which concerns on 2nd Embodiment. 第2実施形態に係る画像形成システムによる処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of a process by the image forming system which concerns on 2nd Embodiment.

[第1実施形態]
図1には、本発明の第1実施形態に係る情報処理システムとしての画像形成システムの一例が示されている。画像形成システムは、例えば、情報処理装置としての画像形成装置10と1又は複数の端末装置12を含む。図1に示す例では、3台の端末装置12が画像形成システムに含まれているが、これは一例であり、3台以外の台数の端末装置12が画像形成システムに含まれていてもよい。もちろん、複数の画像形成装置10が画像形成システムに含まれていてもよい。
[First Embodiment]
FIG. 1 shows an example of an image forming system as an information processing system according to the first embodiment of the present invention. The image forming system includes, for example, an image forming apparatus 10 as an information processing apparatus and one or a plurality of terminal devices 12. In the example shown in FIG. 1, three terminal devices 12 are included in the image forming system, but this is an example, and the number of terminal devices 12 other than three may be included in the image forming system. .. Of course, a plurality of image forming apparatuses 10 may be included in the image forming system.

画像形成装置10と端末装置12は通信経路により接続される。その通信経路は、例えばBluetooth(登録商標)やWi−Fi通信等の無線通信により構築される。通信エリア14は、その無線通信により構築されたエリアである。通信エリア14内においては、画像形成装置10と端末装置12が無線通信により接続され得る状態となる。通信エリア14外においては、無線通信によっては、画像形成装置10と端末装置12は接続されない。以下、通信エリア14は、Bluetooth(登録商標)により構築される通信エリアであるものとする。 The image forming apparatus 10 and the terminal device 12 are connected by a communication path. The communication path is constructed by wireless communication such as Bluetooth (registered trademark) or Wi-Fi communication. The communication area 14 is an area constructed by the wireless communication. In the communication area 14, the image forming apparatus 10 and the terminal device 12 can be connected by wireless communication. Outside the communication area 14, the image forming apparatus 10 and the terminal device 12 are not connected by wireless communication. Hereinafter, the communication area 14 is assumed to be a communication area constructed by Bluetooth (registered trademark).

画像形成装置10は、例えば、スキャン機能、プリント機能、コピー機能及びファクシミリ機能の中の少なくとも1つの機能を備えた装置である。また、画像形成装置10は、他の装置との間でデータを送受信する機能を備えている。 The image forming apparatus 10 is, for example, an apparatus having at least one of a scan function, a print function, a copy function, and a facsimile function. The image forming apparatus 10 also has a function of transmitting and receiving data to and from other devices.

端末装置12は、スマートフォン、タブレットPC(パーソナルコンピュータ)、携帯電話、等の携帯型の端末装置であり、他の装置との間でデータを送受信する機能を備えている。 The terminal device 12 is a portable terminal device such as a smartphone, a tablet PC (personal computer), a mobile phone, or the like, and has a function of transmitting and receiving data to and from other devices.

本実施形態に係る画像形成システムにおいては、例えば、画像形成装置10と端末装置12との間で通信が確立され、これにより、画像形成装置10から端末装置12にデータが送信されたり、端末装置12から画像形成装置10にデータが送信される。 In the image forming system according to the present embodiment, for example, communication is established between the image forming apparatus 10 and the terminal device 12, whereby data is transmitted from the image forming apparatus 10 to the terminal device 12 or the terminal device 12 is transmitted. Data is transmitted from 12 to the image forming apparatus 10.

以下、図2を参照して、画像形成装置10の構成について詳しく説明する。図2には、画像形成装置10の構成が示されている。 Hereinafter, the configuration of the image forming apparatus 10 will be described in detail with reference to FIG. FIG. 2 shows the configuration of the image forming apparatus 10.

通信部16は、近距離無線通信機能を備えた通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部16は、一例として、Bluetooth(登録商標)を利用して近距離無線通信を行う機能を備えている。以下、Bluetooth(登録商標)を利用した通信を「BT通信」と称することとする。もちろん、通信部16は、Wi−Fi通信等の他の無線通信を行う機能を備えていてもよい。また、画像形成装置10は、有線通信機能を備えた通信インターフェースを備えていてもよい。 The communication unit 16 is a communication interface having a short-range wireless communication function, and has a function of transmitting data to another device and a function of receiving data from another device. The communication unit 16 has, for example, a function of performing short-range wireless communication using Bluetooth (registered trademark). Hereinafter, communication using Bluetooth (registered trademark) will be referred to as “BT communication”. Of course, the communication unit 16 may have a function of performing other wireless communication such as Wi-Fi communication. Further, the image forming apparatus 10 may include a communication interface having a wired communication function.

画像形成部18は、画像形成に関する処理を実行する機能を備えている。画像形成部18によって、例えば、コピー処理、プリント処理、スキャン処理、ファクシミリ処理、等が実行される。コピー処理では原稿が複写される。プリント処理では画像が用紙等の記録媒体上に印刷される。スキャン処理では原稿が読み取られて画像データが生成される。ファクシミリ処理では、画像データがファクシミリ送信又はファクシミリ受信される。また、スキャン転送処理が実行されてもよい。スキャン転送処理においては、スキャン処理が実行されることにより画像データが生成され、その画像データが端末装置12等の外部装置に送信される。端末装置12等の外部装置から画像形成装置10に画像データが送信され、プリント処理が実行されることにより、画像データに基づく画像が用紙に印刷されてもよい。 The image forming unit 18 has a function of executing processing related to image formation. The image forming unit 18 executes, for example, copy processing, print processing, scan processing, facsimile processing, and the like. In the copy process, the original is copied. In the print processing, an image is printed on a recording medium such as paper. In the scanning process, the document is read and image data is generated. In the facsimile process, image data is transmitted or received by facsimile. Further, the scan transfer process may be executed. In the scan transfer process, image data is generated by executing the scan process, and the image data is transmitted to an external device such as the terminal device 12. Image data may be printed on a sheet by transmitting image data from an external device such as the terminal device 12 to the image forming apparatus 10 and executing print processing.

UI部20はユーザインターフェースであり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。 The UI unit 20 is a user interface and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel or a keyboard.

記憶部22はハードディスク等の記憶装置である。記憶部22には、画像形成の命令を示す情報(例えばジョブ情報等)、プリント処理の対象となる画像データ、スキャン処理により生成された画像データ、各種の制御データ、各種のプログラム、等が記憶される。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。 The storage unit 22 is a storage device such as a hard disk. The storage unit 22 stores information indicating an image formation command (for example, job information), image data to be printed, image data generated by scanning, various control data, various programs, and the like. To be done. Of course, they may be stored in separate storage devices or one storage device.

また、記憶部22には定義情報24が記憶されている。定義情報24は、特定情報を定義した情報である。特定情報は、画像形成装置10に接続される端末装置12(接続対象の端末装置12)を特定するための情報である。特定情報は、例えば、ユーザが行うべき動き(ジェスチャー)を表すジェスチャー情報である。ジェスチャー情報は、例えば、ユーザのジェスチャーを表す動画又は静止画、それらのアニメーション、ジェスチャーを示す文字列、等である。複数の異なるジェスチャーが定義され、それらを表す複数のジェスチャー情報が定義情報24として記憶部22に記憶されていてもよい。この場合、各ジェスチャー情報には、ジェスチャー情報を識別するためのジェスチャー識別情報が対応付けられる。なお、特定情報は、ユーザのジェスチャーを表す情報以外の情報、例えば、音声情報や文字情報等であってもよい。 Further, definition information 24 is stored in the storage unit 22. The definition information 24 is information defining specific information. The identification information is information for identifying the terminal device 12 (the connection target terminal device 12) connected to the image forming apparatus 10. The specific information is, for example, gesture information indicating a movement (gesture) to be performed by the user. The gesture information is, for example, a moving image or a still image representing the user's gesture, their animation, a character string indicating the gesture, and the like. A plurality of different gestures may be defined, and a plurality of gesture information representing them may be stored in the storage unit 22 as the definition information 24. In this case, each gesture information is associated with the gesture identification information for identifying the gesture information. The specific information may be information other than the information indicating the gesture of the user, for example, voice information or character information.

制御部26は、画像形成装置10の各部の動作を制御する機能を備えている。制御部26は、例えば上記の定義情報に従って、ジェスチャーを表すアニメーション、文字列、静止画、等をUI部20の表示部に表示させる。 The control unit 26 has a function of controlling the operation of each unit of the image forming apparatus 10. The control unit 26 displays an animation representing a gesture, a character string, a still image, etc. on the display unit of the UI unit 20 according to the above definition information, for example.

また、制御部26は判定部28を含む。判定部28は、端末装置12から送信された特定情報と、記憶部22に定義情報24として記憶されている特定情報と、を比較し、その比較結果に基づいて、特定情報を送信した端末装置12が接続対象の端末装置12であるか否かを判定する。端末装置12から送信された特定情報に、定義情報24として記憶されている特定情報が含まれている場合、当該端末装置12が接続対象の端末装置12であると特定される。例えば、両特定情報が一致する場合、当該端末装置12が接続対象の端末装置12であると特定される。 The control unit 26 also includes a determination unit 28. The determination unit 28 compares the specific information transmitted from the terminal device 12 with the specific information stored in the storage unit 22 as the definition information 24, and based on the comparison result, the terminal device that transmitted the specific information. It is determined whether 12 is the terminal device 12 to be connected. When the specific information transmitted from the terminal device 12 includes the specific information stored as the definition information 24, the terminal device 12 is identified as the terminal device 12 to be connected. For example, when the two pieces of identification information match, the terminal device 12 is identified as the connection target terminal device 12.

一例として、端末装置12にてジェスチャー情報が検出され、そのジェスチャー情報が端末装置12から画像形成装置10に送信される。判定部28は、端末装置12から送信されたジェスチャー情報と、記憶部22に定義情報24として記憶されているジェスチャー情報と、を比較し、その比較結果に基づいて、ジェスチャー情報を送信した端末装置12が接続対象の端末装置12であるか否かを判定する。端末装置12から送信されたジェスチャー情報に、定義情報24として記憶されているジェスチャー情報が含まれている場合、当該端末装置12が接続対象の端末装置12であると特定される。例えば、両ジェスチャー情報が一致する場合、当該端末装置12が接続対象の端末装置12であると特定される。 As an example, the terminal device 12 detects gesture information, and the gesture information is transmitted from the terminal device 12 to the image forming apparatus 10. The determination unit 28 compares the gesture information transmitted from the terminal device 12 with the gesture information stored as the definition information 24 in the storage unit 22, and based on the comparison result, the terminal device that transmitted the gesture information. It is determined whether 12 is the terminal device 12 to be connected. When the gesture information transmitted from the terminal device 12 includes the gesture information stored as the definition information 24, the terminal device 12 is specified as the connection target terminal device 12. For example, when both gesture information match, the said terminal device 12 is specified as the terminal device 12 of a connection object.

以下、図3を参照して、端末装置12の構成について詳しく説明する。図3には、端末装置12の構成が示されている。 Hereinafter, the configuration of the terminal device 12 will be described in detail with reference to FIG. FIG. 3 shows the configuration of the terminal device 12.

通信部30は、近距離無線通信機能を備えた通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部30は、一例として、Bluetooth(登録商標)を利用して近距離無線通信を行う機能を備えている。もちろん、通信部30は、Wi−Fi通信等の他の無線通信を行う機能を備えていてもよい。また、端末装置12は、有線通信機能を備えた通信インターフェースを備えていてもよい。 The communication unit 30 is a communication interface having a short-range wireless communication function, and has a function of transmitting data to another device and a function of receiving data from another device. The communication unit 30 has, for example, a function of performing short-range wireless communication using Bluetooth (registered trademark). Of course, the communication unit 30 may have a function of performing other wireless communication such as Wi-Fi communication. In addition, the terminal device 12 may include a communication interface having a wired communication function.

UI部32はユーザインターフェースであり、表示部と操作部を含む。表示部は液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。 The UI unit 32 is a user interface and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel or a keyboard.

検出部34は特定情報を検出する機能を備えている。検出部34は例えば加速度センサであり、端末装置12の動き、傾き、向き等を検出するセンサである。検出部34により端末装置12の動きがジェスチャーとして検出される。これにより、その動き(ジェスチャー)を示すジェスチャー情報が検出される。 The detection unit 34 has a function of detecting specific information. The detection unit 34 is, for example, an acceleration sensor, and is a sensor that detects the movement, inclination, orientation, and the like of the terminal device 12. The detection unit 34 detects the movement of the terminal device 12 as a gesture. Thereby, the gesture information indicating the movement (gesture) is detected.

音声出力部36は音声等の音を出力するデバイスである。 The voice output unit 36 is a device that outputs sounds such as voice.

記憶部38はハードディスク等の記憶装置である。記憶部38には、画像データ、各種の制御データ、各種のプログラム、等が記憶される。もちろん、それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。 The storage unit 38 is a storage device such as a hard disk. The storage unit 38 stores image data, various control data, various programs, and the like. Of course, they may be stored in separate storage devices or one storage device.

また、記憶部38には定義情報40が記憶されている。定義情報40は、画像形成装置10に記憶されている定義情報24と同じ情報である。つまり、定義情報40は、上記の特定情報を定義した情報である。特定情報は例えばジェスチャー情報である。複数の異なるジェスチャーが定義され、それらを表す複数のジェスチャー情報が定義情報40として記憶部22に記憶されていてもよい。この場合、各ジェスチャー情報には、ジェスチャー情報を識別するためのジェスチャー識別情報が対応付けられる。なお、特定情報はジェスチャー情報以外の情報、例えば、音声情報や文字情報等であってもよい。 The storage unit 38 also stores definition information 40. The definition information 40 is the same information as the definition information 24 stored in the image forming apparatus 10. That is, the definition information 40 is information that defines the above specific information. The specific information is, for example, gesture information. A plurality of different gestures may be defined, and a plurality of gesture information representing them may be stored in the storage unit 22 as the definition information 40. In this case, each gesture information is associated with the gesture identification information for identifying the gesture information. The specific information may be information other than the gesture information, such as voice information and character information.

制御部42は、端末装置12の各部の動作を制御する機能を備えている。 The control unit 42 has a function of controlling the operation of each unit of the terminal device 12.

また、制御部42は判定部44を含む。判定部44は、検出部34にて検出された特定情報と、記憶部38に定義情報40として記憶されている特定情報と、を比較する。端末装置12にて検出された特定情報に、定義情報40として記憶されている特定情報が含まれている場合、通信部30はBT通信を利用して画像形成装置10に接続し、自装置(端末装置12)を識別するための端末識別情報を画像形成装置10に送信する。例えば、両特定情報が一致する場合、端末識別情報が画像形成装置10に送信される。 The control unit 42 also includes a determination unit 44. The determination unit 44 compares the specific information detected by the detection unit 34 with the specific information stored as the definition information 40 in the storage unit 38. When the specific information detected by the terminal device 12 includes the specific information stored as the definition information 40, the communication unit 30 uses BT communication to connect to the image forming apparatus 10 and The terminal identification information for identifying the terminal device 12) is transmitted to the image forming apparatus 10. For example, when the two pieces of identification information match, the terminal identification information is transmitted to the image forming apparatus 10.

一例として、検出部34によりジェスチャー情報が検出され、判定部44は、検出部34により検出されたジェスチャー情報と、記憶部38に定義情報40として記憶されているジェスチャー情報と、を比較する。検出部34にて検出されたジェスチャー情報に、定義情報40としてのジェスチャー情報が含まれている場合、端末識別情報が画像形成装置10に送信される。例えば、両ジェスチャー情報が一致する場合、端末識別情報が画像形成装置10に送信される。 As an example, the gesture information is detected by the detection unit 34, and the determination unit 44 compares the gesture information detected by the detection unit 34 with the gesture information stored as the definition information 40 in the storage unit 38. When the gesture information detected by the detection unit 34 includes the gesture information as the definition information 40, the terminal identification information is transmitted to the image forming apparatus 10. For example, when the gesture information matches, the terminal identification information is transmitted to the image forming apparatus 10.

以下、第1実施形態に係る画像形成システムについて詳しく説明する。図4には、ジェスチャー情報の一例が示されている。ジェスチャー情報は、画像形成装置10のUI部20の表示部に表示される。例えば、その表示部の画面46に、端末装置を模式的に表す画像48と、ユーザが行うべき動き(ジェスチャー)を示すジェスチャー情報50が表示される。ジェスチャー情報50は一例としてアニメーションとして表示される。図4に示す例では、ジェスチャー情報50は曲線状の動きを示すアニメーションである。もちろん、ジェスチャーはアニメーションでなくてもよい。例えば、「↑↓↑↓↑↓(1秒以内)」等のようなジェスチャーを示す文字列や静止画が、ジェスチャー情報として表示されてもよい。また、ジェスチャーを示す音声が出力されてもよい。 Hereinafter, the image forming system according to the first embodiment will be described in detail. FIG. 4 shows an example of the gesture information. The gesture information is displayed on the display unit of the UI unit 20 of the image forming apparatus 10. For example, on the screen 46 of the display unit, an image 48 schematically showing the terminal device and gesture information 50 indicating a movement (gesture) to be performed by the user are displayed. The gesture information 50 is displayed as an animation, for example. In the example shown in FIG. 4, the gesture information 50 is an animation showing a curved movement. Of course, the gesture does not have to be an animation. For example, a character string indicating a gesture such as “↑↓↑↓↑↓ (within 1 second)” or a still image may be displayed as the gesture information. In addition, a voice indicating a gesture may be output.

以下、図5を参照して、第1実施形態に係る画像形成システムによる処理について説明する。図5には、その処理を示すシーケンス図が示されている。以下では、スキャン転送処理が実行されるものとする。また、図1に示すように、複数の端末装置12が接続対象の候補として通信エリア14内に存在するものとする。 Hereinafter, with reference to FIG. 5, a process performed by the image forming system according to the first embodiment will be described. FIG. 5 shows a sequence diagram showing the processing. In the following, it is assumed that the scan transfer process is executed. Further, as shown in FIG. 1, it is assumed that a plurality of terminal devices 12 are present in the communication area 14 as candidates for connection.

端末装置12の通信部30は、画像形成装置10が提供するサービス(Service UUID)のアドバタイズ(Advertise)を待ち受ける。そのアドバタイズは、画像形成装置10が周辺の端末装置12に対してサービスを提供していることを通知するためのものである。例えば、BLE(Bluetooth Low Energy)を利用したアドバタイズが実行される。 The communication unit 30 of the terminal device 12 waits for an advertisement (Advertise) of a service (Service UUID) provided by the image forming apparatus 10. The advertisement is for notifying that the image forming apparatus 10 is providing the service to the peripheral terminal devices 12. For example, an advertisement using BLE (Bluetooth Low Energy) is executed.

まず、ユーザは画像形成装置10のUI部20を用いてスキャン処理を選択する(S01)。これにより、UI部20の表示部にスキャン用画面が表示される。 First, the user selects a scan process using the UI unit 20 of the image forming apparatus 10 (S01). As a result, the scan screen is displayed on the display unit of the UI unit 20.

次に、画像形成装置10の通信部16は、BLEアドバタイズを行う。つまり、画像形成装置10の通信部16は、BT通信を利用してアドバタイズメント信号を送信する(S02)。この送信は、例えばブロードキャストにより実行される。アドバタイズメント信号は、画像形成装置10がサービスを提供していることを示す信号である。このアドバタイズメント信号の送信が、特定情報の検出、通知の要求に相当する。 Next, the communication unit 16 of the image forming apparatus 10 performs BLE advertisement. That is, the communication unit 16 of the image forming apparatus 10 transmits the advertisement signal using the BT communication (S02). This transmission is executed, for example, by broadcasting. The advertisement signal is a signal indicating that the image forming apparatus 10 is providing a service. The transmission of this advertisement signal corresponds to the request for detection and notification of specific information.

また、画像形成装置10の制御部26は、記憶部22に記憶されている定義情報24に従って、ジェスチャーを表すアニメーションをUI部20の表示部に表示させる(S03)。例えば、図4に示されているジェスチャー情報50が表示される。 Further, the control unit 26 of the image forming apparatus 10 causes the display unit of the UI unit 20 to display an animation representing a gesture according to the definition information 24 stored in the storage unit 22 (S03). For example, the gesture information 50 shown in FIG. 4 is displayed.

端末装置12の通信部30がアドバタイズメント信号を受信すると、端末装置12の検出部34は、端末装置12の動きの検出を開始する(S04)。 When the communication unit 30 of the terminal device 12 receives the advertisement signal, the detection unit 34 of the terminal device 12 starts detecting the movement of the terminal device 12 (S04).

ユーザは画像形成装置10に表示されているジェスチャー情報50を参照し、そのジェスチャー情報50に従って端末装置12を動かす(S05)。ユーザは例えば曲線状に端末装置12を動かす。端末装置12の検出部34は、その動き(ジェスチャー)を検出する(S06)。 The user refers to the gesture information 50 displayed on the image forming apparatus 10 and moves the terminal device 12 according to the gesture information 50 (S05). The user moves the terminal device 12 in a curved shape, for example. The detection unit 34 of the terminal device 12 detects the movement (gesture) (S06).

端末装置12の判定部44は、検出部34により検出された端末装置12の動き(軌跡)を近似計算し、これにより、ジェスチャー情報を得る。判定部44は、検出部34により検出されたジェスチャー情報と、端末装置12の記憶部38に定義情報40として記憶されているジェスチャー情報と、を比較する。検出部34により検出されたジェスチャー情報に、定義情報40としてのジェスチャー情報が含まれている場合、端末装置12の通信部30はBT通信(例えばBLEを利用した通信)を利用して画像形成装置10に接続し、自装置(端末装置12)を識別するための端末識別情報を画像形成装置10に送信する(S07)。端末識別情報は、例えば端末装置12の名称、ID、MACアドレス等である。検出部34により検出されたジェスチャー情報に、定義情報40としてのジェスチャー情報が含まれていない場合、予め設定された制限時間内であれば、端末装置12はジェスチャー検出を継続する。その制限時間を超えている場合、端末装置12は、ジェスチャー検出を中止し、アドバタイズメント信号を待ち受ける。 The determination unit 44 of the terminal device 12 approximately calculates the movement (trajectory) of the terminal device 12 detected by the detection unit 34, and thereby obtains the gesture information. The determination unit 44 compares the gesture information detected by the detection unit 34 with the gesture information stored as the definition information 40 in the storage unit 38 of the terminal device 12. When the gesture information detected by the detection unit 34 includes the gesture information as the definition information 40, the communication unit 30 of the terminal device 12 uses the BT communication (for example, communication using BLE) to form the image forming apparatus. 10 and transmits terminal identification information for identifying its own apparatus (terminal apparatus 12) to the image forming apparatus 10 (S07). The terminal identification information is, for example, the name, ID, MAC address, etc. of the terminal device 12. When the gesture information detected by the detection unit 34 does not include the gesture information as the definition information 40, and within the preset time limit, the terminal device 12 continues the gesture detection. When the time limit is exceeded, the terminal device 12 stops gesture detection and waits for an advertisement signal.

端末装置12から端末識別情報が送信されると、画像形成装置10の通信部16は、その端末識別情報を受信する。画像形成装置10の制御部26は、UI部20の表示部にその端末識別情報(例えば端末名)を表示させる(S08)。複数の端末装置12にてジェスチャー情報が検出され、それら複数の端末装置12から端末識別情報が送信された場合、画像形成装置10のUI部20の表示部には、それら複数の端末装置12の端末名が表示される。 When the terminal identification information is transmitted from the terminal device 12, the communication unit 16 of the image forming apparatus 10 receives the terminal identification information. The control unit 26 of the image forming apparatus 10 causes the display unit of the UI unit 20 to display the terminal identification information (for example, the terminal name) (S08). When the gesture information is detected by the plurality of terminal devices 12 and the terminal identification information is transmitted from the plurality of terminal devices 12, the display unit of the UI unit 20 of the image forming apparatus 10 displays the gesture information of the plurality of terminal devices 12. The terminal name is displayed.

ユーザは、画像形成装置10のUI部20に表示されている端末名を確認し(S09)、その端末名が接続対象とすべき端末装置12(例えば自身の端末装置12)を示している場合、スキャンを指示する(S10)。または、UI部20に複数の端末名が表示されている場合、ユーザは、複数の端末名の中から接続対象とすべき端末装置12の端末名を選択し(S09)、スキャンを指示する(S10)。ユーザは、画像形成装置10にスキャン対象の原稿をセットし、各種パラメータを設定し、スキャンを指示する。 When the user confirms the terminal name displayed on the UI unit 20 of the image forming apparatus 10 (S09), and the terminal name indicates the terminal device 12 (for example, the own terminal device 12) to be connected. , Instruct to scan (S10). Alternatively, when a plurality of terminal names are displayed on the UI unit 20, the user selects the terminal name of the terminal device 12 to be the connection target from the plurality of terminal names (S09) and instructs scanning (S09). S10). The user sets a document to be scanned on the image forming apparatus 10, sets various parameters, and instructs scanning.

UI部20の表示部に接続対象とすべき端末装置12(例えば自身の端末装置12)の端末名が表示されていない場合において、ユーザにより再検出の指示が与えられると、ステップS02以降の処理が実行される。 When the terminal name of the terminal device 12 (for example, the own terminal device 12) to be connected is not displayed on the display unit of the UI unit 20 and the user gives a re-detection instruction, the processing from step S02 Is executed.

また、複数の端末名がUI部20に表示されている場合、画像形成装置10の通信部16は、ユーザにより選択されなかった各端末装置12に、画像データを送信しない旨を示す情報を送信してもよい。その情報を受信した端末装置12の通信部30は、画像形成装置10とのBT通信を切断し、アドバタイズメント信号を待ち受ける。 When a plurality of terminal names are displayed on the UI unit 20, the communication unit 16 of the image forming apparatus 10 transmits information indicating that image data will not be transmitted to each terminal device 12 not selected by the user. You may. The communication unit 30 of the terminal device 12, which has received the information, disconnects the BT communication with the image forming apparatus 10 and waits for an advertisement signal.

ユーザによりスキャンの指示が与えられると、画像形成装置10の画像形成部18はスキャン処理を実行する(S11)。これにより画像データが生成される。1つの端末装置12がジェスチャー情報を送信した場合、その端末装置12が接続対象の端末装置12であるため、画像形成装置10の通信部16は、その端末装置12に、スキャンにより生成された画像データを、BT通信を利用して送信する(S12)。複数の端末装置12がジェスチャー情報を送信した場合、複数の端末装置12の中からユーザにより選択された端末装置12が、接続対象の端末装置12となる。この場合、画像形成装置10の通信部16は、ユーザにより選択された端末装置12に画像データを送信する。 When the user gives a scan instruction, the image forming unit 18 of the image forming apparatus 10 executes a scan process (S11). As a result, image data is generated. When one terminal device 12 transmits the gesture information, since the terminal device 12 is the terminal device 12 to be connected, the communication unit 16 of the image forming apparatus 10 causes the communication device 16 of the image forming apparatus 10 to generate an image generated by scanning on the terminal device 12. The data is transmitted using BT communication (S12). When the plurality of terminal devices 12 transmit the gesture information, the terminal device 12 selected by the user from the plurality of terminal devices 12 becomes the connection target terminal device 12. In this case, the communication unit 16 of the image forming apparatus 10 transmits the image data to the terminal device 12 selected by the user.

端末装置12の通信部30は画像データを受信する。その画像データは、例えば端末装置12の記憶部38に記憶される。端末装置12の音声出力部36は、スキャン転送処理が完了した旨を示す音を発生させる。これにより、スキャン転送処理の完了がユーザに通知される(S13)。なお、端末装置12の振動や同期しているウェアブル端末への通知により、スキャン処理の完了をユーザに通知してもよい。 The communication unit 30 of the terminal device 12 receives the image data. The image data is stored in the storage unit 38 of the terminal device 12, for example. The voice output unit 36 of the terminal device 12 generates a sound indicating that the scan transfer process is completed. As a result, the user is notified of the completion of the scan transfer process (S13). The user may be notified of the completion of the scanning process by the vibration of the terminal device 12 or the notification to the wearable terminal in synchronization.

上記の例では、端末装置12の判定部44により、検出部34により検出されたジェスチャー情報と、定義情報40としてのジェスチャー情報と、の比較が行われる。この場合、画像形成装置10の判定部28は利用されないので、判定部28は画像形成装置10に設けられていなくてもよい。 In the above example, the determination unit 44 of the terminal device 12 compares the gesture information detected by the detection unit 34 with the gesture information as the definition information 40. In this case, since the determination unit 28 of the image forming apparatus 10 is not used, the determination unit 28 does not have to be provided in the image forming apparatus 10.

別の例として、端末装置12にて両ジェスチャー情報の比較が行われず、画像形成装置10にてその比較が行われてもよい。この場合、その比較は、画像形成装置10の判定部28により行われる。端末装置12の判定部44は利用されないので、判定部44は端末装置12に設けられていなくてもよい。この別の例では、端末装置12にてジェスチャー情報が検出されると、そのジェスチャー情報とその端末装置12の端末識別情報が、その端末装置12から画像形成装置10に送信される。画像形成装置10の判定部28は、端末装置12から送信されたジェスチャー情報と、定義情報24としてのジェスチャー情報と、を比較する。端末装置12から送信されたジェスチャー情報に、定義情報24としてのジェスチャー情報が含まれている場合、当該端末装置12が接続対象の端末装置12であると特定され、その端末装置12の端末名がUI部20の表示部に表示される。スキャン処理により生成された画像データは、その接続対象の端末装置12に送信される。複数の端末装置12からジェスチャー情報が送信された場合も、定義情報24としてのジェスチャー情報を含むジェスチャー情報を送信した端末装置12の端末名が、UI部20の表示部に表示される。複数の端末名が表示された場合、複数の端末名の中からユーザにより選択された端末名を持つ端末装置12が、接続対象の端末装置12として特定され、スキャン処理により生成された画像データは、その接続対象の端末装置12に送信される。 As another example, the terminal device 12 may not compare the two pieces of gesture information, but the image forming apparatus 10 may perform the comparison. In this case, the comparison is performed by the determination unit 28 of the image forming apparatus 10. Since the determination unit 44 of the terminal device 12 is not used, the determination unit 44 does not have to be provided in the terminal device 12. In this another example, when the gesture information is detected by the terminal device 12, the gesture information and the terminal identification information of the terminal device 12 are transmitted from the terminal device 12 to the image forming apparatus 10. The determination unit 28 of the image forming apparatus 10 compares the gesture information transmitted from the terminal device 12 with the gesture information as the definition information 24. When the gesture information transmitted from the terminal device 12 includes the gesture information as the definition information 24, the terminal device 12 is specified as the connection target terminal device 12, and the terminal name of the terminal device 12 is determined. It is displayed on the display unit of the UI unit 20. The image data generated by the scanning process is transmitted to the terminal device 12 that is the connection target. Even when the gesture information is transmitted from the plurality of terminal devices 12, the terminal name of the terminal device 12 that has transmitted the gesture information including the gesture information as the definition information 24 is displayed on the display unit of the UI unit 20. When the plurality of terminal names are displayed, the terminal device 12 having the terminal name selected by the user from the plurality of terminal names is specified as the connection target terminal device 12, and the image data generated by the scanning process is , To the terminal device 12 to be connected.

以上のように、本実施形態によると、ユーザが画像形成装置10に表示されたジェスチャーに従って端末装置12を動かすことにより、接続対象の端末装置12を特定するためのジェスチャー情報が検出され、検出されたジェスチャー情報を用いて接続対象の端末装置12が特定される。接続対象の端末装置12を特定するための操作として、ユーザは特定のジェスチャーに従って端末装置12を動かせば済み、通信エリア14内に存在するすべての端末装置12の中から接続対象の端末装置12を指定する必要はない。それ故、通信エリア14内に存在するすべての端末装置12の中からユーザが接続対象の端末装置12を指定する場合と比べて、接続対象の端末装置12が容易に特定される。 As described above, according to the present embodiment, the user moves the terminal device 12 in accordance with the gesture displayed on the image forming apparatus 10, whereby the gesture information for specifying the terminal device 12 to be connected is detected and detected. The terminal device 12 to be connected is specified using the gesture information. As an operation for specifying the terminal device 12 to be connected, the user has only to move the terminal device 12 according to a specific gesture, and the terminal device 12 to be connected is selected from all the terminal devices 12 existing in the communication area 14. No need to specify. Therefore, as compared with the case where the user specifies the terminal device 12 to be connected from all the terminal devices 12 existing in the communication area 14, the terminal device 12 to be connected is easily specified.

なお、ジェスチャー情報は画像形成装置10のUI部20に表示されなくてもよい。この場合、ユーザは予め定義されたジェスチャーに従って端末装置12を動かすことによりジェスチャー情報が検出され、その検出されたジェスチャー情報を用いて接続対象の端末装置12が特定される。 The gesture information may not be displayed on the UI unit 20 of the image forming apparatus 10. In this case, the user moves the terminal device 12 according to a predefined gesture to detect gesture information, and the detected gesture information is used to identify the terminal device 12 to be connected.

第1実施形態において、複数の異なるジェスチャー情報の中から選択されたジェスチャー情報を用いることにより、接続対象の端末装置12が特定されてもよい。例えば、複数の異なるジェスチャーを示す複数のジェスチャー情報が定義情報として、画像形成装置10と端末装置12に記憶される。画像形成装置10の制御部26は、複数のジェスチャー情報をUI部20の表示部に表示させる。その複数のジェスチャー情報の中からユーザにより選択された特定のジェスチャー情報が、接続対象の端末装置12の特定処理に用いられる。または、制御部26は、複数のジェスチャー情報の中からランダムに特定のジェスチャー情報を選択し、当該特定のジェスチャー情報をUI部20の表示部に表示させてもよい。ランダムに選択された特定のジェスチャー情報が、接続対象の端末装置12の特定処理に用いられる。ユーザにより選択された又はランダムに選択されたジェスチャー情報を用いることにより、同一のジェスチャー情報を繰り返し使用する場合と比べて、セキュリティが向上する。つまり、選択されたジェスチャー情報はあたかもワンタイムパスワードと同様の機能を発揮するので、セキュリティが向上する。 In the first embodiment, the connection target terminal device 12 may be specified by using the gesture information selected from a plurality of different gesture information. For example, a plurality of pieces of gesture information indicating a plurality of different gestures are stored in the image forming apparatus 10 and the terminal device 12 as definition information. The control unit 26 of the image forming apparatus 10 displays a plurality of gesture information on the display unit of the UI unit 20. Specific gesture information selected by the user from the plurality of pieces of gesture information is used for the specific process of the terminal device 12 to be connected. Alternatively, the control unit 26 may randomly select specific gesture information from the plurality of gesture information and display the specific gesture information on the display unit of the UI unit 20. The randomly selected specific gesture information is used for the specific process of the terminal device 12 to be connected. By using the gesture information selected by the user or randomly selected, security is improved as compared with the case where the same gesture information is repeatedly used. In other words, the selected gesture information has the same function as a one-time password, which improves security.

具体的に説明すると、端末装置12の検出部34は端末装置12の動き(軌跡)を検出し、判定部44は、検出部34により検出されたジェスチャー情報と、端末装置12の記憶部38に定義情報40として記憶されている複数のジェスチャー情報と、を比較する。検出部34により検出されたジェスチャー情報に、定義情報40としてのジェスチャー情報が含まれている場合、端末装置12の通信部30は、当該含まれているジェスチャー情報のジェスチャー識別情報を画像形成装置10に送信する。画像形成装置10の制御部26は、ユーザにより選択された又はランダムに選択された特定のジェスチャー情報のジェスチャー識別情報と、端末装置12から送信されたジェスチャー識別情報と、を照合する。両ジェスチャー識別情報が一致している場合、そのジェスチャー識別情報を送信した端末装置12が接続対象の端末装置12であると特定され、その端末装置12の端末名がUI部20の表示部に表示される。スキャン処理が実行された場合、そのスキャン処理により生成された画像データが、その端末装置12に送信される。両ジェスチャー識別情報が一致しない場合、ジェスチャー情報を送信した端末装置12に対して、画像データを送信しない旨の情報が送信される。 Specifically, the detection unit 34 of the terminal device 12 detects the movement (trajectory) of the terminal device 12, and the determination unit 44 stores the gesture information detected by the detection unit 34 and the storage unit 38 of the terminal device 12. The gesture information stored as the definition information 40 is compared. When the gesture information detected by the detection unit 34 includes the gesture information as the definition information 40, the communication unit 30 of the terminal device 12 sets the gesture identification information of the included gesture information to the image forming apparatus 10. Send to. The control unit 26 of the image forming apparatus 10 collates the gesture identification information of the specific gesture information selected by the user or randomly selected with the gesture identification information transmitted from the terminal device 12. When the two gesture identification information match, the terminal device 12 that has transmitted the gesture identification information is identified as the connection target terminal device 12, and the terminal name of the terminal device 12 is displayed on the display unit of the UI unit 20. To be done. When the scan process is executed, the image data generated by the scan process is transmitted to the terminal device 12. If the gesture identification information does not match, the information indicating that the image data is not transmitted is transmitted to the terminal device 12 that transmitted the gesture information.

別の例として、端末装置12の通信部30は、検出されたジェスチャー情報を画像形成装置10に送信してもよい。この場合、画像形成装置10の判定部28は、複数のジェスチャー情報の中からユーザにより選択された又はランダムに選択された特定のジェスチャー情報と、端末装置12から送信されたジェスチャー情報と、を比較する。端末装置12から送信されたジェスチャー情報に、選択された特定のジェスチャー情報が含まれている場合、当該端末装置12が接続対象の端末装置12として特定される。 As another example, the communication unit 30 of the terminal device 12 may transmit the detected gesture information to the image forming apparatus 10. In this case, the determination unit 28 of the image forming apparatus 10 compares the specific gesture information selected by the user or randomly selected from the plurality of gesture information with the gesture information transmitted from the terminal device 12. To do. When the gesture information transmitted from the terminal device 12 includes the selected specific gesture information, the terminal device 12 is specified as the connection target terminal device 12.

上記のステップS08において、複数の端末名がUI部20の表示部に表示される場合、画像形成装置10の制御部26は、端末識別情報を送信した複数の端末装置12の中から、画像形成装置10から最短距離にある端末装置12を接続対象の端末装置12として特定してもよい。例えば、端末装置12の制御部42は、画像形成装置10からアドバタイズメント信号を受信し、受信した信号の強度を積分する。ステップS07において、端末装置12の通信部30は、端末識別情報とともにその積分値を画像形成装置10に送信する。画像形成装置10の通信部16は、予め設定された期間中、端末装置12から送信を待ち受け、画像形成装置10の制御部26は、最大の積分値を送信した端末装置12を、接続対象の端末装置として特定する。その端末装置12の端末名はUI部20の表示部に表示される。画像形成装置10に近い端末装置12ほど、その端末装置12にて受信される信号の強度は大きくなる。それ故、大きな積分値を送信した端末装置12ほど、画像形成装置10に近いと推測される。スキャン転送処理が実行される場合、通常、画像形成装置10のUI部20を利用してスキャンの設定等が行われるため、画像形成装置10から最短距離にある端末装置12を持っているユーザが、スキャン転送処理の実行を指示するユーザ(スキャン処理の利用者)であると推測される。それ故、画像形成装置10から最短距離にある端末装置12が接続対象の端末装置12として推測される。この処理により、複数の端末装置12から端末識別情報が画像形成装置10に送信された場合であっても、それら複数の端末装置12の中から接続対象の端末装置12が自動的に選択される。それ故、それら複数の端末装置12の中からユーザが接続対象の端末装置12を選択する場合と比べて、ユーザの手間が軽減される。 When a plurality of terminal names are displayed on the display unit of the UI unit 20 in step S08 described above, the control unit 26 of the image forming apparatus 10 selects an image from the plurality of terminal apparatuses 12 that have transmitted the terminal identification information. The terminal device 12 that is the shortest distance from the device 10 may be specified as the connection target terminal device 12. For example, the control unit 42 of the terminal device 12 receives the advertisement signal from the image forming apparatus 10 and integrates the intensity of the received signal. In step S07, the communication unit 30 of the terminal device 12 transmits the integrated value together with the terminal identification information to the image forming apparatus 10. The communication unit 16 of the image forming apparatus 10 waits for transmission from the terminal device 12 during a preset period, and the control unit 26 of the image forming apparatus 10 selects the terminal device 12 that has transmitted the maximum integrated value as a connection target. Specify as a terminal device. The terminal name of the terminal device 12 is displayed on the display unit of the UI unit 20. The closer the terminal device 12 is to the image forming apparatus 10, the greater the strength of the signal received by the terminal device 12. Therefore, it is estimated that the terminal device 12 that has transmitted the larger integrated value is closer to the image forming apparatus 10. When the scan transfer process is executed, normally, the scan settings and the like are performed using the UI unit 20 of the image forming apparatus 10. Therefore, a user who has the terminal device 12 that is the shortest distance from the image forming apparatus 10 can It is presumed that the user is a user (user of the scan process) who instructs the execution of the scan transfer process. Therefore, the terminal device 12 located at the shortest distance from the image forming apparatus 10 is estimated as the terminal device 12 to be connected. By this processing, even when the terminal identification information is transmitted from the plurality of terminal devices 12 to the image forming apparatus 10, the terminal device 12 to be connected is automatically selected from the plurality of terminal devices 12. .. Therefore, compared to the case where the user selects the terminal device 12 to be connected from among the plurality of terminal devices 12, the labor of the user is reduced.

[第2実施形態]
以下、第2実施形態に係る画像形成システムについて説明する。図6には、第2実施形態に係る画像形成装置10Aの構成が示されており、図7には、第2実施形態に係る端末装置12Aの構成が示されている。第1実施形態と同様に、第2実施形態に係る画像形成システムは、画像形成装置10Aと端末装置12Aを含み、図1に示す通信エリア14内において、画像形成装置10Aと端末装置12Aが無線通信により接続され得る状態にある。
[Second Embodiment]
The image forming system according to the second embodiment will be described below. FIG. 6 shows the configuration of the image forming apparatus 10A according to the second embodiment, and FIG. 7 shows the configuration of the terminal device 12A according to the second embodiment. Similar to the first embodiment, the image forming system according to the second embodiment includes an image forming apparatus 10A and a terminal device 12A, and within the communication area 14 shown in FIG. 1, the image forming apparatus 10A and the terminal device 12A are wireless. It is ready to be connected by communication.

画像形成装置10Aは、第1実施形態に係る画像形成装置10と異なり、定義情報24と判定部28を備えておらず、端末特定部52を備えている。端末特定部52以外の構成は、第1実施形態に係る画像形成装置10の構成と同じである。 Unlike the image forming apparatus 10 according to the first exemplary embodiment, the image forming apparatus 10A does not include the definition information 24 and the determination unit 28, but includes the terminal specifying unit 52. The configuration other than the terminal identification unit 52 is the same as the configuration of the image forming apparatus 10 according to the first embodiment.

端末特定部52は、端末装置12Aから送信された信号に基づいて、接続対象の端末装置12を特定する。端末特定部52は、例えば、各端末装置12Aが送信するアドバタイズメント信号の強度を示す信号(RSSI:Received Signal Strength Indication)を取得し、複数の端末装置12Aの中で最大強度のアドバタイズメント信号を送信する端末装置12Aを、接続対象の端末装置12Aとして特定する。または、端末特定部52は、予め設定された期間毎に各端末装置12AのRSSIを複数回取得し、それらの積算値を演算し、最大の積算値を有する端末装置12Aを接続対象の端末装置12Aとして特定してもよい。 The terminal identifying unit 52 identifies the terminal device 12 to be connected based on the signal transmitted from the terminal device 12A. The terminal identification unit 52 acquires, for example, a signal (RSSI: Received Signal Strength Indication) indicating the strength of the advertisement signal transmitted by each terminal device 12A, and outputs the advertisement signal having the highest strength among the plurality of terminal devices 12A. The terminal device 12A to be transmitted is specified as the terminal device 12A to be connected. Alternatively, the terminal identifying unit 52 acquires the RSSI of each terminal device 12A multiple times for each preset period, calculates the integrated value thereof, and connects the terminal device 12A having the maximum integrated value to the terminal device to be connected. It may be specified as 12A.

端末装置12Aは、第1実施形態に係る端末装置12と異なり、定義情報40と判定部44を備えていない。それら以外の構成は、第1実施形態に係る端末装置12と同じである。 Unlike the terminal device 12 according to the first embodiment, the terminal device 12A does not include the definition information 40 and the determination unit 44. The other configurations are the same as those of the terminal device 12 according to the first embodiment.

以下、図8を参照して、第2実施形態に係る画像形成システムによる処理について説明する。図8には、その処理を示すシーケンス図が示されている。以下では、スキャン転送処理が実行されるものとする。また、複数の端末装置12Aが接続対象の候補として通信エリア14内に存在するものとする。 Hereinafter, the processing by the image forming system according to the second embodiment will be described with reference to FIG. FIG. 8 shows a sequence diagram showing the processing. In the following, it is assumed that the scan transfer process is executed. Further, it is assumed that the plurality of terminal devices 12A are present in the communication area 14 as candidates for the connection target.

まず、ユーザは自身の端末装置12Aの電源をONにする(S20)。 First, the user turns on the power of his/her terminal device 12A (S20).

各端末装置12Aの通信部30は、BT通信を利用して、同じ送信信号強度を有するアドバタイズメント信号を送信する(S21)。例えば、BLEを利用したアドバタイズが実行される。この場合において、端末装置12Aにおいてユーザが特定のアプリケーション(例えばスキャン処理に関するアプリケーション)の起動を指示すると、予め設定された送信信号強度を有するアドバタイズメント信号が送信されてもよい。または、画像形成装置10Aの通信部16は、通信エリア14内に存在する各端末装置12Aに対して、予め設定された送信信号強度を有するアドバタイズメント信号を送信するように要求し、各端末装置12Aは、その要求に応じて、予め設定された送信信号強度を有するアドバタイズメント信号を送信してもよい。これにより、各端末装置12Aから同じ送信信号強度を有するアドバタイズメント信号が送信され、送信信号強度の差異に基づく測定誤差の発生が回避される。 The communication unit 30 of each terminal device 12A transmits an advertisement signal having the same transmission signal strength by using BT communication (S21). For example, advertisement using BLE is executed. In this case, when the user instructs the terminal device 12A to start a specific application (for example, an application relating to scan processing), an advertisement signal having a preset transmission signal strength may be transmitted. Alternatively, the communication unit 16 of the image forming apparatus 10A requests each terminal device 12A existing in the communication area 14 to transmit an advertisement signal having a preset transmission signal strength, and each terminal device 12A. In response to the request, 12A may transmit an advertisement signal having a preset transmission signal strength. As a result, the advertisement signal having the same transmission signal strength is transmitted from each terminal device 12A, and the occurrence of the measurement error based on the difference in the transmission signal strength is avoided.

次に、ユーザは画像形成装置10AのUI部20を用いてスキャン処理を選択する(S22)。これにより、UI部20の表示部にスキャン用画面が表示される。 Next, the user selects the scan process using the UI unit 20 of the image forming apparatus 10A (S22). As a result, the scan screen is displayed on the display unit of the UI unit 20.

次に、画像形成装置10Aの通信部16は、各端末装置12Aから送信されるアドバタイズメント信号を受信する(S23)。このとき、各端末装置12Aから、自身の端末装置12Aを識別するための端末識別情報が画像形成装置10Aに送信される。 Next, the communication unit 16 of the image forming apparatus 10A receives the advertisement signal transmitted from each terminal device 12A (S23). At this time, each terminal device 12A transmits terminal identification information for identifying its own terminal device 12A to the image forming apparatus 10A.

画像形成装置10Aの端末特定部52は、各端末装置12Aが送信するアドバタイズメント信号のRSSIを取得し(S24)、複数の端末装置12Aの中で最大強度のアドバタイズメント信号を送信する端末装置12Aを、接続対象の端末装置12Aとして特定する(S25)。端末特定部52は、例えば、複数の端末装置12Aの中で最大強度のアドバタイズメント信号を送信する端末装置12Aを接続対象の端末装置12Aとして特定してもよい(特定方法1)。または、端末特定部52は、RSSIの積算値を演算し、最大の積算値を有する端末装置12Aを接続対象の端末装置12Aとして特定してもよい(特定方法2)。 The terminal identification unit 52 of the image forming apparatus 10A acquires the RSSI of the advertisement signal transmitted by each terminal device 12A (S24), and transmits the advertisement signal having the maximum strength among the plurality of terminal devices 12A. Is specified as the terminal device 12A to be connected (S25). The terminal identifying unit 52 may identify, for example, the terminal device 12A that transmits the advertisement signal having the maximum strength among the plurality of terminal devices 12A as the terminal device 12A to be connected (identifying method 1). Alternatively, the terminal specifying unit 52 may calculate the integrated value of the RSSI and specify the terminal device 12A having the maximum integrated value as the terminal device 12A to be connected (specification method 2).

画像形成装置10Aの制御部26は、接続対象の端末装置12Aの端末名をUI部20の表示部に表示させる(S26)。なお、RSSI値又はRSSIの積算値が予め設定された範囲内に含まれる端末装置12Aの端末名が表示されてもよい。 The control unit 26 of the image forming apparatus 10A displays the terminal name of the connection target terminal device 12A on the display unit of the UI unit 20 (S26). In addition, the terminal name of the terminal device 12A in which the RSSI value or the integrated value of the RSSI is included within a preset range may be displayed.

ユーザは、画像形成装置10AのUI部20に表示されている端末名を確認し、接続対象とすべき端末装置12A(例えば自身の端末装置12A)の端末名を選択する(S27)。接続対象とすべき端末装置12Aの端末名が表示されていない場合、処理はステップS25に戻る。特定方法1が実行される場合、端末特定部52は、強度が次に大きいアドバタイズメント信号を送信する端末装置12Aを接続対象の端末装置12Aとして特定する。特定方法2が実行される場合、端末特定部52は、RSSIの積算値が予め設定された範囲内に含まれる複数の端末装置12Aを接続対象の端末装置12Aとして特定する。特定された端末装置12Aの端末名はUI部20の表示部に表示される。なお、ステップS27の確認及び選択処理は実行されなくてもよい。この場合、ステップS25にて特定された端末装置12Aが自動的に選択される。 The user confirms the terminal name displayed on the UI unit 20 of the image forming apparatus 10A and selects the terminal name of the terminal device 12A (for example, own terminal device 12A) to be connected (S27). If the terminal name of the terminal device 12A to be connected is not displayed, the process returns to step S25. When the specifying method 1 is executed, the terminal specifying unit 52 specifies the terminal device 12A that transmits the advertisement signal having the next highest strength as the connection target terminal device 12A. When the specifying method 2 is executed, the terminal specifying unit 52 specifies the plurality of terminal devices 12A in which the integrated value of the RSSI is included within the preset range as the terminal device 12A to be connected. The specified terminal name of the terminal device 12A is displayed on the display unit of the UI unit 20. Note that the confirmation and selection processing in step S27 may not be executed. In this case, the terminal device 12A specified in step S25 is automatically selected.

画像形成装置10Aの通信部16は、ユーザ又は自動的に選択された端末装置12Aに対して接続を要求する(S28)。これにより、選択された端末装置12Aと画像形成装置10Aとの間で通信が確立される。この場合、画像形成装置10AのUI部20の表示部には、特定の端末装置12Aと画像形成装置10Aとが接続した旨を示す情報が表示される(S29)。 The communication unit 16 of the image forming apparatus 10A requests the connection to the user or the automatically selected terminal device 12A (S28). As a result, communication is established between the selected terminal device 12A and the image forming apparatus 10A. In this case, information indicating that the specific terminal device 12A and the image forming apparatus 10A are connected is displayed on the display unit of the UI unit 20 of the image forming apparatus 10A (S29).

ユーザは、画像形成装置10Aにスキャン対象の原稿をセットし、各種パラメータを設定し、スキャンを指示する(S30)。画像形成部18によりスキャン処理が実行され(S31)、これにより、画像データが生成される。その画像データは、接続対象の端末装置12Aに送信される(S32)。端末装置12Aにより画像データが受信されると、音声、振動又はウェアブル端末への通知により、スキャン転送処理の完了がユーザに通知される(S33)。 The user sets a document to be scanned on the image forming apparatus 10A, sets various parameters, and instructs scanning (S30). The image forming unit 18 executes the scan process (S31), and the image data is thereby generated. The image data is transmitted to the terminal device 12A to be connected (S32). When the image data is received by the terminal device 12A, the completion of the scan transfer process is notified to the user by voice, vibration, or notification to the wearable terminal (S33).

以上のように、第2実施形態によると、端末装置12Aが送信するアドバタイズメント信号の強度に基づいて、接続対象の端末装置12Aが特定される。接続対象の端末装置12Aを特定するための操作として、ユーザは端末装置12Aの電源をONにすれば済み、通信エリア14内に存在するすべての端末装置12Aの中から接続対象の端末装置12Aを指定する必要はない。それ故、通信エリア14内に存在するすべての端末装置12Aの中からユーザが接続対象の端末装置12Aを指定する場合と比べて、接続対象の端末装置12Aが容易に特定される。 As described above, according to the second embodiment, the terminal device 12A to be connected is specified based on the strength of the advertisement signal transmitted by the terminal device 12A. As an operation for specifying the connection target terminal device 12A, the user only has to turn on the power of the terminal device 12A, and the connection target terminal device 12A is selected from all the terminal devices 12A existing in the communication area 14. No need to specify. Therefore, as compared with the case where the user specifies the connection target terminal device 12A from all the terminal devices 12A existing in the communication area 14, the connection target terminal device 12A is easily specified.

(変形例)
以下、変形例に係る画像形成システムについて説明する。変形例に係る画像形成装置は、第2実施形態に係る画像形成装置10Aと同じ構成を有し、変形例に係る端末装置は、第1実施形態に係る端末装置12と同じ構成を有する。以下、変形例に係る処理について説明する。
(Modification)
The image forming system according to the modified example will be described below. The image forming apparatus according to the modification has the same configuration as the image forming apparatus 10A according to the second embodiment, and the terminal device according to the modification has the same configuration as the terminal device 12 according to the first embodiment. The process according to the modification will be described below.

まず、ユーザは画像形成装置10AのUI部20を用いてスキャン処理を選択する。これにより、UI部20の表示部にスキャン用画面が表示される。画像形成装置10Aの通信部16は、各端末装置12から送信されるアドバタイズメント信号の受信待ち状態となる。 First, the user selects the scan process using the UI unit 20 of the image forming apparatus 10A. As a result, the scan screen is displayed on the display unit of the UI unit 20. The communication unit 16 of the image forming apparatus 10</b>A is in a waiting state for receiving the advertisement signal transmitted from each terminal device 12.

画像形成装置10Aの制御部26は、予め設定されたジェスチャー情報をUI部20の表示部に表示させる。例えば、図4に示すジェスチャー情報50が表示される。このジェスチャー情報は画像形成装置10Aの記憶部22に予め記憶されている情報である。また、端末装置12に記憶されている定義情報40は、その予め設定されたジェスチャー情報と同じ情報を定義する。 The control unit 26 of the image forming apparatus 10A causes the display unit of the UI unit 20 to display preset gesture information. For example, the gesture information 50 shown in FIG. 4 is displayed. This gesture information is information stored in advance in the storage unit 22 of the image forming apparatus 10A. Further, the definition information 40 stored in the terminal device 12 defines the same information as the preset gesture information.

ユーザは画像形成装置10Aに表示されているジェスチャー情報50を参照し、そのジェスチャー情報50に従って端末装置12を動かす。端末装置12の検出部34は、その動き(ジェスチャー)を検出する。 The user refers to the gesture information 50 displayed on the image forming apparatus 10A and moves the terminal device 12 according to the gesture information 50. The detection unit 34 of the terminal device 12 detects the movement (gesture).

端末装置12の判定部44は、検出部34により検出されたジェスチャー情報が、予め設定されたジェスチャー情報であるか否かを判定する。検出されたジェスチャー情報に、定義情報40としてのジェスチャー情報が含まれる場合、検出されたジェスチャー情報は予め設定されたジェスチャー情報であると判定される。この場合、端末装置12の通信部30は、アドバタイズメント信号を画像形成装置10Aに送信する。 The determination unit 44 of the terminal device 12 determines whether the gesture information detected by the detection unit 34 is preset gesture information. When the detected gesture information includes the gesture information as the definition information 40, the detected gesture information is determined to be preset gesture information. In this case, the communication unit 30 of the terminal device 12 transmits the advertisement signal to the image forming apparatus 10A.

画像形成装置10Aの通信部16は、端末装置12から送信されたアドバタイズメント信号を受信する。画像形成装置10Aの制御部26は、アドバタイズメント信号の受信の順番に従って、接続対象の端末装置12を特定する。例えば、受信の順番が一番早い端末装置12が、接続対象の端末装置12として特定される。画像形成装置10Aの通信部16は、接続対象の端末装置12に対して接続を要求する。以下、上述した第1及び第2実施形態と同様に、スキャン処理により生成された画像データが、接続対象の端末装置12に送信される。 The communication unit 16 of the image forming apparatus 10A receives the advertisement signal transmitted from the terminal device 12. The control unit 26 of the image forming apparatus 10A specifies the terminal device 12 to be connected according to the order of receiving the advertisement signal. For example, the terminal device 12 having the earliest reception order is specified as the terminal device 12 to be connected. The communication unit 16 of the image forming apparatus 10A requests the connection target terminal device 12 for connection. Hereinafter, similarly to the above-described first and second embodiments, the image data generated by the scanning process is transmitted to the terminal device 12 to be connected.

画像形成装置10Aが複数の端末装置12からアドバタイズメント信号を受信した場合、予め設定された期間内に受信されたアドバタイズメント信号を送信した1又は複数の端末装置12の端末名がUI部20に表示されてもよい。この場合、表示された1又は複数の端末名の中からユーザが接続対象の端末装置12を選択すると、画像形成装置10Aの通信部16は、選択された端末装置12に接続を要求する。以下、上述した第1及び第2実施形態と同様に、スキャン処理により生成された画像データが、選択された端末装置12に送信される。 When the image forming apparatus 10A receives the advertisement signal from the plurality of terminal devices 12, the terminal name of the one or more terminal devices 12 that has transmitted the advertisement signal received within the preset period is displayed in the UI unit 20. It may be displayed. In this case, when the user selects the terminal device 12 to be connected from the displayed one or more terminal names, the communication unit 16 of the image forming apparatus 10A requests the selected terminal device 12 for connection. Hereinafter, similar to the above-described first and second embodiments, the image data generated by the scanning process is transmitted to the selected terminal device 12.

上述した第1、第2実施形態及び変形例においては、スキャン転送処理が実行される場合について説明したが、スキャン転送処理以外の処理が実行されてもよい。この場合も、上述した特定処理により接続対象の端末装置が特定される。 In the above-described first and second embodiments and modified examples, the case where the scan transfer process is executed has been described, but a process other than the scan transfer process may be executed. Also in this case, the terminal device to be connected is specified by the specifying process described above.

上記の画像形成装置10,10Aは、一例としてハードウェア資源とソフトウェアとの協働により実現される。具体的には、画像形成装置10,10Aは、図示しないCPU等のプロセッサを備えている。当該プロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、画像形成装置10,10Aの各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。または、画像形成装置10,10Aの各部は、例えばプロセッサや電子回路等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。別の例として、画像形成装置10,10Aの各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。 The image forming apparatuses 10 and 10A described above are realized, for example, by cooperation of hardware resources and software. Specifically, the image forming apparatuses 10 and 10A include a processor such as a CPU (not shown). The function of each unit of the image forming apparatus 10 or 10A is realized by the processor reading and executing a program stored in a storage device (not shown). The program is stored in the storage device via a recording medium such as a CD or a DVD or via a communication path such as a network. Alternatively, each unit of the image forming apparatus 10 or 10A may be realized by a hardware resource such as a processor or an electronic circuit. A device such as a memory may be used in the realization thereof. As another example, each unit of the image forming apparatuses 10 and 10A may be realized by a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like.

10,10A 画像形成装置、12,12A 端末装置、14 通信エリア、16,30 通信部、18 画像形成部、20,32 UI部、22,38 記憶部、24,40 定義情報、26,42 制御部、28,44 判定部、34 検出部、36 音声出力部、52 端末特定部。 10, 10A image forming device, 12, 12A terminal device, 14 communication area, 16, 30 communication unit, 18 image forming unit, 20, 32 UI unit, 22, 38 storage unit, 24, 40 definition information, 26, 42 control Section, 28,44 determination section, 34 detection section, 36 voice output section, 52 terminal identification section.

Claims (8)

ユーザの動きを表すジェスチャーの情報を表示する、タッチパネルを備えた表示手段と、
接続対象の端末装置を特定するためのジェスチャーの情報であって端末装置により検出されたジェスチャーの情報を当該端末装置から受信する受信手段と、
前記表示手段に表示されたジェスチャーに対する前記表示手段のタッチパネルへの入力を受け付けずに、端末装置の動きとして検出されて前記受信手段により受信されたジェスチャーの情報に基づいて、前記表示手段に表示されたジェスチャーに一致するジェスチャーの動きをした端末装置を接続対象の端末装置として特定する特定手段と、
を有する情報処理装置。
A display unit having a touch panel for displaying information on a gesture representing a user's movement;
Receiving means for receiving from the terminal device the information of the gesture for identifying the terminal device to be connected, which is the information of the gesture detected by the terminal device,
The gesture displayed on the display means is not displayed on the touch panel of the display means, and is displayed on the display means based on the information of the gesture detected by the movement of the terminal device and received by the receiving means. Specifying means for specifying a terminal device that has made a gesture motion that matches the specified gesture as a connection target terminal device,
Information processing device having a.
ジェスチャーの情報を端末装置に要求する要求手段を更に有し、
前記受信手段は、前記要求に応じて端末装置により検出されたジェスチャーの情報を当該端末装置から受信する、
ことを特徴とする請求項1に記載の情報処理装置。
Furthermore, it further comprises requesting means for requesting the terminal device for gesture information,
The receiving unit receives, from the terminal device, information on a gesture detected by the terminal device in response to the request.
The information processing apparatus according to claim 1, wherein:
前記特定手段は、複数の異なるジェスチャーの情報の中から選択されたジェスチャーの情報と前記受信されたジェスチャーの情報との比較結果に基づいて接続対象の端末装置を特定する、
ことを特徴とする請求項1に記載の情報処理装置。
The specifying unit specifies a terminal device to be connected based on a comparison result of information about a gesture selected from information about a plurality of different gestures and information about the received gesture,
The information processing apparatus according to claim 1, wherein:
前記特定手段は、前記複数の異なるジェスチャーの情報の中からランダムに選択されたジェスチャーの情報又はユーザにより選択されたジェスチャーの情報と、前記受信されたジェスチャーの情報と、の比較結果に基づいて接続対象の端末装置を特定する、
ことを特徴とする請求項3に記載の情報処理装置。
The specifying unit is connected based on a comparison result of information of a gesture randomly selected from information of the plurality of different gestures or information of a gesture selected by a user and information of the received gesture. Specify the target terminal device,
The information processing apparatus according to claim 3, characterized in that.
前記特定手段は、前記選択されたジェスチャーの情報に一致するジェスチャーの情報を検出した端末装置を接続対象の端末装置として特定する、
ことを特徴とする請求項3又は請求項4に記載の情報処理装置。
The specifying unit specifies a terminal device that has detected the gesture information that matches the selected gesture information, as a connection target terminal device,
The information processing apparatus according to claim 3 or 4, characterized in that.
ジェスチャーの情報に基づいて、接続対象となる複数の端末装置が特定された場合、前記特定手段は、当該複数の端末装置の中から、自装置から最短距離にある端末装置を接続対象の端末装置として特定する、
ことを特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置。
When a plurality of terminal devices to be connected are specified based on the information on the gesture, the specifying unit selects the terminal device, which is the shortest distance from the own device, from the plurality of terminal devices to be connected. Identify as,
The information processing apparatus according to any one of claims 1 to 5, wherein:
情報処理装置と端末装置とを含み、
前記情報処理装置は、
ユーザの動きを表すジェスチャーの情報を表示する、タッチパネルを備えた表示手段と、
接続対象の端末装置を特定するためのジェスチャーの情報を端末装置に要求する要求手段を有し、
前記端末装置は、
前記要求に応じてジェスチャーの情報を検出する検出手段と、
前記検出されたジェスチャーの情報を前記情報処理装置に送信する送信手段と、を有し、
前記情報処理装置は、
前記端末装置により検出されたジェスチャーの情報を受信する受信手段と、
前記表示手段に表示されたジェスチャーに対する前記表示手段のタッチパネルへの入力を受け付けずに、端末装置の動きとして検出されて前記受信手段により受信されたジェスチャーの情報に基づいて、前記表示手段に表示されたジェスチャーに一致するジェスチャーの動きをした端末装置を接続対象の端末装置として特定する特定手段と、を更に有する、
情報処理システム。
Including an information processing device and a terminal device,
The information processing device,
A display unit having a touch panel for displaying information on a gesture representing a user's movement;
It has requesting means for requesting the terminal device for information on a gesture for specifying the terminal device to be connected,
The terminal device,
Detecting means for detecting the gesture information in response to the request,
Transmission means for transmitting the information of the detected gesture to the information processing device,
The information processing device,
Receiving means for receiving the information of the gesture detected by the terminal device,
The gesture displayed on the display means is not displayed on the touch panel of the display means, and is displayed on the display means based on the information of the gesture detected by the movement of the terminal device and received by the receiving means. And a specifying unit that specifies a terminal device that has made a gesture motion that matches the gesture as a connection target terminal device,
Information processing system.
コンピュータを、
ユーザの動きを表すジェスチャーの情報を、タッチパネルを備えた表示手段に表示させる制御手段、
接続対象の端末装置を特定するためのジェスチャーの情報であって端末装置により検出されたジェスチャーの情報を当該端末装置から受信する受信手段、
前記表示手段に表示されたジェスチャーに対する前記表示手段のタッチパネルへの入力を受け付けずに、端末装置の動きとして検出されて前記受信手段により受信されたジェスチャーの情報に基づいて、前記表示手段に表示されたジェスチャーに一致するジェスチャーの動きをした端末装置を接続対象の端末装置として特定する特定手段、
として機能させるプログラム。
Computer,
Control means for displaying information of a gesture representing a user's movement on a display means having a touch panel ,
Receiving means for receiving from the terminal device the information of the gesture for identifying the terminal device to be connected, which is the information of the gesture detected by the terminal device,
The gesture displayed on the display means is not displayed on the touch panel of the display means, and is displayed on the display means based on the information of the gesture detected by the movement of the terminal device and received by the receiving means. Specifying means for specifying, as a terminal device to be connected, a terminal device that makes a gesture motion that matches the gesture
A program to function as.
JP2015242678A 2015-12-11 2015-12-11 Information processing device, information processing system, and program Active JP6728664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015242678A JP6728664B2 (en) 2015-12-11 2015-12-11 Information processing device, information processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015242678A JP6728664B2 (en) 2015-12-11 2015-12-11 Information processing device, information processing system, and program

Publications (2)

Publication Number Publication Date
JP2017108359A JP2017108359A (en) 2017-06-15
JP6728664B2 true JP6728664B2 (en) 2020-07-22

Family

ID=59060250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242678A Active JP6728664B2 (en) 2015-12-11 2015-12-11 Information processing device, information processing system, and program

Country Status (1)

Country Link
JP (1) JP6728664B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6996120B2 (en) * 2017-06-16 2022-01-17 コニカミノルタ株式会社 Image forming device
JP7148392B2 (en) * 2018-12-27 2022-10-05 シャープ株式会社 Image processing device and image data transmission method
JP2020108027A (en) * 2018-12-27 2020-07-09 シャープ株式会社 Connection system, control method, image processing device, and communication method
JP2021009619A (en) * 2019-07-02 2021-01-28 富士ゼロックス株式会社 Information processing system and program
JP2021170154A (en) * 2020-04-14 2021-10-28 コニカミノルタ株式会社 Control apparatus and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799883B2 (en) * 2011-06-16 2015-10-28 コニカミノルタ株式会社 Connection control apparatus, information processing apparatus, image forming apparatus, portable mobile terminal, information processing system, connection control apparatus control method, and connection control apparatus control program
JP2013146048A (en) * 2011-12-15 2013-07-25 Ricoh Co Ltd Image processing apparatus, communication method and communication program for image processing apparatus, portable information terminal, and information processing system
JP2014027330A (en) * 2012-07-24 2014-02-06 Fujitsu Ltd Wireless communication device, wireless communication method and wireless communication control program

Also Published As

Publication number Publication date
JP2017108359A (en) 2017-06-15

Similar Documents

Publication Publication Date Title
JP6728664B2 (en) Information processing device, information processing system, and program
JP6590486B2 (en) Program, method, communication terminal
US9575701B2 (en) Image forming apparatus using Wi-Fi handover technique, control method therefor, and storage medium
US20160026416A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP7135342B2 (en) Computer program for terminal device and terminal device
JP6184105B2 (en) COMMUNICATION DEVICE, COMMUNICATION DEVICE CONTROL METHOD, PROGRAM
JP6265192B2 (en) COMMUNICATION DEVICE, COMMUNICATION SYSTEM, AND APPLICATION PROGRAM
US20220166685A1 (en) Communication apparatus and control method for the same
JP6468027B2 (en) Communication equipment and computer program therefor
JP6709015B2 (en) Communication device
JP2017204191A (en) Information processing apparatus and printing system
US10251039B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US9274727B2 (en) Communication apparatus, control method therefor, and computer-readable storage medium for performing connection to a processing target apparatus
EP2722781B1 (en) Information processing system, information processing device
KR101936144B1 (en) Multifunction internet-of-things device and technique for establishing bluetooth low energy connection with such device
JP6766469B2 (en) Information processing equipment, image processing equipment and programs
JP2016045666A (en) Print system, print server, convenience information providing method and convenience information providing program
JP2018151790A (en) Terminal device and computer program therefor
JP7024909B1 (en) Image formation systems, mobile terminals and programs
JP6398811B2 (en) Communication system, information processing apparatus, and program
JP5887863B2 (en) Information processing system, information transmission device, information reception device, information transmission program, and information reception program
JP6743918B2 (en) Image forming system, mobile terminal and program
JP6493605B2 (en) Image forming system, portable terminal and program
JP6556187B2 (en) Program, storage medium, portable terminal control method, and portable terminal
JP2018125583A (en) Network system, image processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6728664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350