JP2018169937A - 情報処理システム、情報処理装置および情報処理方法 - Google Patents

情報処理システム、情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2018169937A
JP2018169937A JP2017068549A JP2017068549A JP2018169937A JP 2018169937 A JP2018169937 A JP 2018169937A JP 2017068549 A JP2017068549 A JP 2017068549A JP 2017068549 A JP2017068549 A JP 2017068549A JP 2018169937 A JP2018169937 A JP 2018169937A
Authority
JP
Japan
Prior art keywords
terminal
input
information processing
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017068549A
Other languages
English (en)
Other versions
JP6763333B2 (ja
Inventor
晃希 畑田
Koki Hatada
晃希 畑田
淳一 由良
Junichi Yura
淳一 由良
松本 達郎
Tatsuro Matsumoto
達郎 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017068549A priority Critical patent/JP6763333B2/ja
Priority to US15/938,402 priority patent/US10901522B2/en
Publication of JP2018169937A publication Critical patent/JP2018169937A/ja
Application granted granted Critical
Publication of JP6763333B2 publication Critical patent/JP6763333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0231Cordless keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/06Consumer Electronics Control, i.e. control of another device by a display or vice versa
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/24Keyboard-Video-Mouse [KVM] switch

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

【課題】複数のユーザがソフトキーボードを使って共通の画面へ入力操作する場合に、入力操作を複数のユーザごとにパーソナライズする。
【解決手段】情報処理装置1は、複数の入力部3と関連する表示部2の入力エリアへのフォーカスを検出する。情報処理装置1は、ユーザが持つ端末4から出力されるセンサ情報を受信する。そして、情報処理装置1は、受信されたセンサ情報により端末4が識別される場合には、端末4と検出されたフォーカスの入力エリアへ入力するために用いられる入力部3とを対応付ける。そして、情報処理装置1は、入力部3からフォーカスに対する入力を取得すると、取得された入力を、入力部3に対応付けられた端末4へ送信する。
【選択図】図1

Description

本発明は、情報処理システムなどに関する。
近年、空間をデジタル化するUI(User Interface)技術が知られている。かかる空間UIでは、壁や机などの広い空間を使って1つのウィンドウシステムを構築する。そして、空間UIでは、付箋をデジタル化したデジタル付箋を作成し、作成したデジタル付箋に手書き文字を入力することができる。
また、空間UIの関連技術として、複数のユーザが大画面を利用する際の入力に関する研究がなされている(例えば、非特許文献1を参照)。かかる研究では、マウスとキーボードの組を大画面に接続し、複数人からの同時入力を実現する。
また、空間UIの別の関連技術として、壁をディスプレイにする技術が知られている。かかる技術では、壁のディスプレイ上にソフトキーボードを表示し、ソフトキーボードを使ってテキスト入力を実現する。ソフトキーボードは、スクリーンキーボードともいわれ、画面上に平面的なキーボードを表示し、キーボード操作ができるソフトウェアのことをいう。
特開2007−310784号公報 特開2010−181992号公報 特開2015−228062号公報 特開2005−346179号公報
S.lzadi,et al.2003.Dynamo:a public interactive surface supporting the cooperative sharing and exchange of media.In Proc.of UIST’03.ACM,159-168
しかしながら、複数のユーザがソフトキーボードを使って共通の画面に入力する場合に、入力する仮名を漢字に変換する仮名漢字変換を複数のユーザごとにパーソナライズすることができないという問題がある。
例えば、日本語入力システムのIME(Input Method Editor)では、使用頻度が高い漢字を記憶し、仮名漢字変換するときに使用頻度が高い漢字を優先して変換候補の上位に表示する。つまり、日本語入力システムを使用するユーザごとに仮名漢字変換をパーソナライズする。
ところが、空間UI技術では、デジタル付箋に手書き文字を入力することはできるが、ソフトキーボードを使って文字を入力することができない。
また、空間UIの関連技術では、マウスとキーボードの組を画面に接続し、複数人からの同時入力を実現するが、キーボードとユーザとの関係がわからないため、仮名漢字変換を複数のユーザごとにパーソナライズすることができない。
また、空間UIの別の関連技術では、壁のディスプレイ上でソフトキーボードを使ってテキスト入力を実現するが、ソフトキーボードとユーザとの関係がわからないため、仮名漢字変換を複数のユーザごとにパーソナライズすることができない。
なお、上記課題は、仮名漢字変換の操作だけでなく、コピーアンドペーストなどの画面への入力操作にも同様に生じる課題である。
1つの側面では、複数のユーザがソフトキーボードを使って共通の画面に入力操作する場合に、入力操作を複数のユーザごとにパーソナライズすることを目的とする。
1つの態様では、情報処理システムは、情報処理装置と、前記情報処理装置に接続する複数の端末と、前記情報処理装置に接続するディスプレイと、を有する。前記ディスプレイは、複数のユーザインタフェースと関連する。前記情報処理装置は、前記ディスプレイの入力エリアへのフォーカスを検出する検出部と、ユーザが持つ端末から出力されるセンサ情報を受信する受信部と、前記受信部によって受信されたセンサ情報により前記端末が識別される場合には、前記端末と前記検出部によって検出されたフォーカスの入力エリアへ入力するために用いられる前記ユーザインタフェースとを対応付ける対応付け部と、前記ユーザインタフェースから前記フォーカスに対する入力を取得する取得部と、前記取得部によって取得された入力を、前記ユーザインタフェースに対応付けられた前記端末へ送信する送信部と、を有する。
1つの態様によれば、複数のユーザがソフトキーボードを使って共通の画面へ入力操作する場合に、入力操作を複数のユーザごとにパーソナライズすることができる。
図1は、実施例1に係る情報処理システムの構成を示す機能ブロック図である。 図2は、実施例1に係る対応付け管理テーブルのデータ構造の一例を示す図である。 図3は、実施例1に係る対応付け処理の一例を示す図である。 図4は、実施例1に係る対応付け処理の別の例を示す図である。 図5は、実施例1に係る情報処理のフローチャートの一例を示す図である。 図6は、実施例1に係る情報処理のフローチャートの別の例を示す図である。 図7は、実施例1に係る情報処理システムの第1の変形例を示す図である。 図8は、実施例1に係る情報処理システムの第2の変形例を示す図である。 図9は、実施例1に係る情報処理システムの第3の変形例を示す図である。 図10は、実施例1に係る情報処理システムの第4の変形例を示す図である。 図11は、実施例2に係る情報処理システムの構成を示す機能ブロック図である。 図12は、入力に関連する関連情報をサーバから取得する場合を説明する図である。 図13は、実施例3に係る情報処理システムの構成を示す機能ブロック図である。 図14は、入力に関連する関連情報を情報処理装置が算出する場合を説明する図である。 図15は、情報処理プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示する情報処理システム、情報処理装置および情報処理方法の実施例を図面に基づいて詳細に説明する。なお、実施例によりこの発明が限定されるものではない。
[実施例1に係る情報処理システムの構成]
図1は、実施例1に係る情報処理システムの構成を示す機能ブロック図である。実施例1に係る情報処理システム9は、空間をデジタル化するUI(User Interface)技術において、画面の入力エリアへのフォーカスを検出したとき、ユーザが持つ端末のセンサ情報を受信する場合に、当該端末と検出されたフォーカスの入力エリアへ入力するために用いられるソフトキーボードとを対応付ける。そして、情報処理システム9は、ソフトキーボードで入力された入力をソフトキーボードに対応付けた端末へ送信する。そして、情報処理システム9は、端末に保持された情報を用いて入力に関わる情報を、端末を持つユーザごとにパーソナライズする。ここでいう「フォーカス」とは、入力や操作を受け付ける状態のことをいう。また、「ソフトキーボード」とは、画面上に平面的なキーボードを表示し、キーボード操作ができるソフトウェアのことをいう。また、ここでいう「入力に関わる情報」とは、入力操作が仮名漢字変換である場合には、入力が示す仮名の仮名漢字変換候補の情報のことを示すが、これに限定されるものではない。また、ここでいう「パーソナライズ」とは、例えば「カスタマイズ」や「最適化」のことをいう。
情報処理システム9は、情報処理装置1および端末4を有する。情報処理装置1は、壁や机などの広い空間を1つの表示部2として機能させる。また、情報処理装置1は、表示部2に複数の入力部3を所定のタイミングで表示させる。所定のタイミングは、表示部2として機能させたタイミングであっても良いし、表示部2の入力エリアへのフォーカスを検出したタイミングであっても良い。表示部2は、画像を表示する画面である。入力部3は、文字や線などを表示部2に入力するユーザインタフェース(UI)であり、例えばソフトキーボードを示す。
情報処理装置1は、端末4と接続する。端末4は、所定のセンサ機能と表示機能と無線通信機能とを含む機能を備え、例えば、スマートフォン、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistance)などの携帯用の端末装置に対応する。所定のセンサは、例えば、加速度センサやNFC(Near Field Communication)であるが、これに限定されず、端末4を識別することが可能なセンサであれば良い。無線通信は、例えば、WiFi(登録商標)(Wireless Fidelity)であったり、Bluetooth(登録商標)規格の無線通信であったりするが、近距離無線通信であれば良い。なお、図1では、端末4が1台の場合であるが、複数台の場合であっても良い。
情報処理装置1は、フォーカス検出部11、センサ受信部12、対応付け算出部13、対応付け管理部14、対応付け管理テーブル15、入力取得部16、入力送信部17、関連情報受信部18および表示制御部19を有する。
フォーカス検出部11は、表示部2の入力エリアへのフォーカスを検出する。例えば、フォーカス検出部11は、電子ペンによる入力エリアへのフォーカスを検出する。フォーカス検出部11は、フォーカスを検出すると、フォーカスを検出した付近に入力エリアと重ならないように入力部3を表示する。なお、フォーカス検出部11は、フォーカスを検出したタイミングで入力部3を表示すると説明したが、これに限定されない、入力部3は、フォーカス検出部11がフォーカスを検出したときに、既に表示されていても良い。
センサ受信部12は、端末4から出力されるセンサ情報を受信する。例えば、センサ受信部12は、端末4の識別に端末4の振動を用いる場合には、端末4から振動のセンサ情報を受信する。また、センサ受信部12は、端末4の識別にNFCを用いる場合には、端末4からNFCのセンサ情報を受信する。なお、端末4の識別にNFCを用いる場合には、端末4だけでなく表示部2空間内にもNFCタグが埋め込まれていることが前提となる。
対応付け算出部13は、センサ受信部12によって受信されたセンサ情報により端末4が識別された場合には、入力エリアへ入力するために用いられる入力部3と端末4との対応関係を算出する。例えば、対応付け算出部13は、フォーカス検出部11が入力エリアへのフォーカスを検出した時点と、センサ受信部12がセンサ情報を受信した時点との時間差を算出する。対応付け算出部13は、算出した時間差が所定の時間差の範囲内である場合には、センサ情報を出力した端末4とフォーカスされた入力エリア付近の入力部3とを対応付ける。所定の時間差の範囲は、例えば、5秒間や10秒間であるが、センサ情報を受信した時点が入力エリアへのフォーカスを検出した時点の直後を示す範囲であれば良い。
対応付け管理部14は、対応付け算出部13によって算出された対応関係を管理する。例えば、対応付け管理部14は、センサ受信部12によるセンサ情報の受信が初回である場合には、対応付け算出部13によって算出された入力部3と端末4との対応付けを対応付け管理テーブル15に格納する。また、対応付け管理部14は、センサ受信部12によるセンサ情報の受信が2回目である場合には、対応付け管理テーブル15に格納された入力部3と端末4との対応付けを解除する。
ここで、対応付け管理テーブル15のデータ構造の一例を、図2を参照して説明する。図2は、実施例1に係る対応付け管理テーブルのデータ構造の一例を示す図である。図2に示すように、対応付け管理テーブル15は、入力画面ID(Identifier)15aと端末ID15bとを対応付けて記憶する。入力画面ID15aは、例えば、端末ID15bが示す端末4を持つユーザが操作する入力部3のIDである。端末ID15bは、端末4のIDである。一例として、入力画面ID15aが「keyboard001」である場合には、端末ID15bとして「smartphone001」と記憶している。
入力取得部16は、入力部3からフォーカスに対する入力を取得する。例えば、入力取得部16は、後述する入力に関連する関連情報が仮名漢字変換候補である場合には、入力部3から入力が示す仮名を取得する。
入力送信部17は、入力取得部16によって取得された入力を、入力部3に対応付けられた端末4へ送信する。例えば、入力送信部17は、対応付け管理テーブル15を参照し、入力が入力された入力部3の入力画面ID15aに対応付けられた端末ID15bを読み出す。入力送信部17は、入力取得部16によって取得された入力が示す仮名を、読み出した端末ID15bが示す端末4へ送信する。
関連情報受信部18は、端末4から入力に関連する関連情報を受信する。例えば、関連情報受信部18は、入力を送信した端末4から当該入力が示す仮名の仮名漢字変換候補を受信する。
表示制御部19は、関連情報受信部18によって受信された入力に関連する関連情報を入力部3の近辺の表示部2に表示する。例えば、表示制御部19は、関連情報受信部18によって受信された入力が示す仮名の仮名漢字変換候補を、表示部2内の入力部3近辺の右側に入力部3と重ならないように表示する。また、表示制御部19は、仮名漢字変換候補から入力部3を用いて漢字が選択されると、選択された漢字をフォーカスされた位置に挿入する。
端末4は、センサ検出部41、センサ送信部42、入力受信部43、関連情報算出部44および関連情報送信部45を有する。
センサ検出部41は、端末4のセンサ情報を検出する。例えば、センサ検出部41は、端末4の識別に端末4の振動を用いる場合には、加速度センサのセンサ情報を検出する。また、センサ検出部41は、端末4の識別にNFCを用いる場合には、NFCタグのセンサ情報を検出する。
センサ送信部42は、センサ検出部41によって検出されたセンサ情報を情報処理装置1に送信する。
入力受信部43は、情報処理装置1から入力を受信する。例えば、入力受信部43は、情報処理装置1から入力が示す仮名を受信する。
関連情報算出部44は、入力受信部43によって受信された入力に関連する関連情報を算出する。例えば、関連情報算出部44は、入力が示す仮名に対する仮名漢字変換候補を端末4に保持された情報から読み出し、読み出した仮名漢字変換候補に含まれる漢字をユーザの使用頻度の高い順に並べ替える。
関連情報送信部45は、関連情報算出部44によって算出された入力に関連する関連情報を情報処理装置1へ送信する。例えば、関連情報送信部45は、関連情報算出部44によって並び替えられた、入力が示す仮名の仮名漢字変換候補を情報処理装置1へ送信する。
[対応付け処理の一例]
図3は、実施例1に係る対応付け処理の一例を示す図である。なお、図3では、対応付け算出部13は、加速度センサのセンサ情報を用いて、センサ情報を出力した端末4と入力部3とを対応付けるものとする。なお、入力部3は、ソフトキーボードであるとする。
ユーザが表示部2の入力エリアを電子ペンによりフォーカスする(a1)。ここでいう入力エリアは、例えば、予め生成されたデジタル付箋である。すると、情報処理装置1では、フォーカス検出部11は、表示部2の入力エリアへのフォーカスを検出する。そして、フォーカス検出部11は、フォーカスを検出した位置付近に入力エリアと重ならないように入力部3を表示する(a2)。
入力エリアがフォーカスされた直後に、ユーザが端末4をシェイクする(a3)。すると、情報処理装置1では、センサ受信部12は、端末4から端末4の端末IDおよび振動のセンサ情報を受信する。そして、対応付け算出部13は、受信した端末IDの端末4とフォーカスを検出した位置付近に表示された入力部3とを対応付ける(a4)。
続いて、ユーザは入力部3を用いてフォーカスに対する仮名を入力する。ここでは、ユーザは、「けんぽう」と入力したとする。すると、情報処理装置1では、入力取得部16は、入力部3から入力された仮名「けんぽう」を取得する。そして、入力送信部17は、取得された仮名「けんぽう」を、入力部3に対応付けられた端末IDの端末4へ送信する(a5)。
端末4では、入力受信部43が、情報処理装置1から送信された仮名「けんぽう」を受信する。そして、関連情報算出部44は、入力に関連する関連情報を算出する。ここでは、関連情報算出部44は、入力が示す仮名「けんぽう」に対する仮名漢字変換候補を算出する。すなわち、関連情報算出部44は、端末4固有の仮名漢字変換候補を算出する。一例として、仮名漢字変換候補として「けんぽう、憲法、拳法、剣法、建保」のようにユーザの使用頻度の高い順に算出される。そして、関連情報送信部45は、算出された仮名漢字変換候補を情報処理装置1へ送信する。
情報処理装置1では、関連情報受信部18が、端末4から送信された仮名漢字変換候補を受信し、表示制御部19は、受信された仮名漢字変換候補を入力部3の近辺に入力部3と重ならないように表示する(a6)。これにより、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、仮名漢字変換の変換候補を、端末4を持つユーザに対して最適化(パーソナライズ)することができる。
[対応付け処理の別の例]
図4は、実施例1に係る対応付け処理の別の例を示す図である。なお、図4では、対応付け算出部13は、NFCのセンサ情報を用いて、センサ情報を出力した端末4と入力部3とを対応付けるものとする。なお、入力部3は、ソフトキーボードであるとする。
ユーザが表示部2の入力エリアを電子ペンによりフォーカスする(b1)。ここでいう入力エリアは、例えば、予め生成されたデジタル付箋である。すると、情報処理装置1では、フォーカス検出部11は、表示部2の入力エリアへのフォーカスを検出する。そして、フォーカス検出部11は、フォーカスを検出した位置付近に入力エリアと重ならないように入力部3を表示する(b2)。
入力エリアがフォーカスされた直後に、ユーザが端末4を表示部2へ接触または接近させる(b3)。すると、情報処理装置1では、センサ受信部12は、端末4から端末4の端末IDおよびNFCのセンサ情報を受信する。そして、対応付け算出部13は、受信した端末IDの端末4とフォーカスを検出した位置付近に表示された入力部3とを対応付ける(b4)。
続いて、ユーザは入力部3を用いて入力エリアに対する仮名を入力する。ここでは、ユーザは、「けんぽう」と入力したとする。すると、情報処理装置1では、入力取得部16は、入力部3から入力された仮名「けんぽう」を取得する。そして、入力送信部17は、取得された仮名「けんぽう」を、入力部3に対応付けられた端末IDの端末4へ送信する(b5)。
端末4では、入力受信部43が、情報処理装置1から送信された仮名「けんぽう」を受信する。そして、関連情報算出部44は、入力に関連する関連情報を算出する。ここでは、関連情報算出部44は、入力が示す仮名「けんぽう」に対する仮名漢字変換候補を算出する。すなわち、関連情報算出部44は、端末4固有の仮名漢字変換候補を算出する。一例として、仮名漢字変換候補として「けんぽう、憲法、拳法、剣法、建保」のようにユーザの使用頻度の高い順で算出される。そして、関連情報送信部45は、算出された仮名漢字変換候補を情報処理装置1へ送信する。
情報処理装置1では、関連情報受信部18が、端末4から送信された仮名漢字変換候補を受信し、表示制御部19は、受信された仮名漢字変換候補を入力部3の近辺に入力部3と重ならないように表示する(b6)。これにより、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、仮名漢字変換の変換候補を、端末4を持つユーザに対して最適化(パーソナライズ)することができる。
[情報処理のフローチャートの一例]
図5は、実施例1に係る情報処理のフローチャートの一例を示す図である。なお、図5では、入力の対象を仮名とし、仮名漢字変換の入力操作を行う場合について説明する。また、対応付け算出部13は、加速度センサのセンサ情報を用いて、センサ情報を出力した端末4と入力部3とを対応付けるものとする。
図5に示すように、フォーカス検出部11は、表示部2の入力エリアへのフォーカスを検出したか否かを判定する(ステップS11)。フォーカスを検出していないと判定した場合には(ステップS11;No)、フォーカス検出部11は、フォーカスを検出するまで、判定処理を繰り返す。
一方、フォーカスを検出したと判定した場合には(ステップS11;Yes)、フォーカス検出部11は、フォーカスを検出した付近に入力部3を表示する。そして、フォーカス検出部11は、フォーカス検出から一定の時間が経過したか否かを判定する(ステップS12)。フォーカス検出から一定の時間が経過したと判定した場合には(ステップS12;Yes)、情報処理装置1は、情報処理を終了する。
一方、フォーカス検出から一定の時間が経過していないと判定した場合には(ステップS12;No)、センサ受信部12は、端末4からセンサ情報を受信したか否かを判定する(ステップS13)。端末4からセンサ情報を受信していないと判定した場合には(ステップS13;No)、センサ受信部12は、フォーカス検出から一定の時間が経過するまで、判定処理を繰り返すべく、ステップS12に移行する。
一方、端末4からセンサ情報を受信したと判定した場合には(ステップS13;Yes)、センサ受信部12は、センサ情報がシェイク(振動)を示すか否かを判定する(ステップS14)。センサ情報がシェイク(振動)を示さないと判定した場合には(ステップS14;No)、情報処理装置1は、情報処理を終了する。
一方、センサ情報がシェイク(振動)を示すと判定した場合には(ステップS14;Yes)、対応付け算出部13は、フォーカスと端末4との対応関係を算出する。そして、対応付け管理部14は、算出された対応関係を対応付け管理テーブル15に記録する(ステップS15)。例えば、対応付け算出部13は、センサ情報を出力した端末4とフォーカスされた入力エリア付近の入力部3とを対応付ける。そして、対応付け管理部14は、対応付けられた、入力部3と端末4との対応関係を対応付け管理テーブル15に記録する。すなわち、対応付け管理部14は、入力部3の入力画面ID15aと端末4の端末ID15bとの対応関係を対応付け管理テーブル15に記録する。
続いて、フォーカス検出部11は、フォーカスの終了を検出したか否かを判定する(ステップS16)。フォーカスの終了を検出したと判定した場合には(ステップS16;Yes)。情報処理装置1は、情報処理を終了する。
一方、フォーカスの終了を検出していないと判定した場合には(ステップS16;No)、入力取得部16は、フォーカスへの入力を検出したか否かを判定する(ステップS17)。フォーカスへの入力を検出していないと判定した場合には(ステップS17;No)、入力取得部16は、フォーカスへの入力を検出するまで、判定処理を繰り返すべく、ステップS16に移行する。
一方、フォーカスへの入力を検出したと判定した場合には(ステップS17;Yes)、入力送信部17は、検出して取得された入力を、対応する端末4へ送信する(ステップS18)。例えば、入力送信部17は、対応付け管理テーブル15を参照し、入力された入力部3の入力画面ID15aに対応付けられた端末ID15bを読み出す。そして、入力送信部17は、端末ID15bが示す端末4へ送信する。ここでは、入力は、漢字変換したい仮名である。
続いて、関連情報受信部18は、入力に対する仮名漢字変換候補を受信したか否かを判定する(ステップS19)。入力に対する仮名漢字変換候補を受信していないと判定した場合には(ステップS19;No)、関連情報受信部18は、入力に対する仮名漢字変換候補を受信するまで、判定処理を繰り返すべく、ステップS19に移行する。
一方、入力に対する仮名漢字変換候補を受信したと判定した場合には(ステップS19;Yes)、表示制御部19は、受信した仮名漢字変換候補を入力部3の近辺の表示部2に表示する(ステップS20)。この後、表示制御部19は、表示した仮名漢字変換候補から選択された漢字を、例えば入力エリアのフォーカスが検出された位置に挿入する。そして、情報処理装置1は、情報処理を終了する。
これにより、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、仮名漢字変換の変換候補を、端末4を持つユーザに対して最適化(パーソナライズ)することができる。
なお、実施例1では、情報処理装置1は、入力の対象を仮名として、仮名を漢字変換するという入力操作を行う場合について説明した。しかしながら、情報処理装置1は、これに限定されず、入力の対象をコピー情報とし、コピーアンドペーストの入力操作を行う場合であっても良い。ここで、コピーアンドペーストの入力操作を行う場合のフローチャートを、図6を参照して説明する。
[情報処理のフローチャートの一例]
図6は、実施例1に係る情報処理のフローチャートの別の例を示す図である。なお、対応付け算出部13は、加速度センサのセンサ情報を用いて、センサ情報を出力した端末4と入力部3とを対応付けるものとする。
図6に示すように、フォーカス検出部11は、表示部2の入力エリアへのフォーカスを検出したか否かを判定する(ステップS31)。フォーカスを検出していないと判定した場合には(ステップS31;No)、フォーカス検出部11は、フォーカスを検出するまで、判定処理を繰り返す。
一方、フォーカスを検出したと判定した場合には(ステップS31;Yes)、フォーカス検出部11は、フォーカスを検出した付近に入力部3を表示する。そして、フォーカス検出部11は、フォーカス検出から一定の時間が経過したか否かを判定する(ステップS32)。フォーカス検出から一定の時間が経過したと判定した場合には(ステップS32;Yes)、情報処理装置1は、情報処理を終了する。
一方、フォーカス検出から一定の時間が経過していないと判定した場合には(ステップS32;No)、センサ受信部12は、端末4からセンサ情報を受信したか否かを判定する(ステップS33)。端末4からセンサ情報を受信していないと判定した場合には(ステップS33;No)、センサ受信部12は、フォーカス検出から一定の時間が経過するまで、判定処理を繰り返すべく、ステップS32に移行する。
一方、端末4からセンサ情報を受信したと判定した場合には(ステップS33;Yes)、センサ受信部12は、センサ情報がシェイク(振動)を示すか否かを判定する(ステップS34)。センサ情報がシェイク(振動)を示さないと判定した場合には(ステップS34;No)、情報処理装置1は、情報処理を終了する。
一方、センサ情報がシェイク(振動)を示すと判定した場合には(ステップS34;Yes)、対応付け算出部13は、フォーカスと端末4との対応関係を算出する。そして、対応付け管理部14は、算出された対応関係を対応付け管理テーブル15に記録する(ステップS35)。すなわち、対応付け管理部14は、入力部3の入力画面ID15aと端末4の端末ID15bとの対応関係を対応付け管理テーブル15に記録する。
続いて、フォーカス検出部11は、フォーカスの終了を検出したか否かを判定する(ステップS36)。フォーカスの終了を検出したと判定した場合には(ステップS36;Yes)。情報処理装置1は、情報処理を終了する。
一方、フォーカスの終了を検出していないと判定した場合には(ステップS36;No)、入力取得部16は、ペースト操作を検出したか否かを判定する(ステップS37)。ペースト操作を検出していないと判定した場合には(ステップS37;No)、入力取得部16は、コピー操作を検出したか否かを判定する(ステップS38)。一方、ペースト操作を検出したと判定した場合には(ステップS37;Yes)、入力取得部16は、ステップS40に移行する。
コピー操作を検出していないと判定した場合には(ステップS38;No)、入力取得部16は、コピー操作を検出するまで、判定処理を繰り返すべく、ステップS36に移行する。
一方、コピー操作を検出したと判定した場合には(ステップS38;Yes)、入力送信部17は、検出して取得されたコピー情報を、対応する端末4へ送信する(ステップS39)。例えば、入力送信部17は、対応付け管理テーブル15を参照し、入力された入力部3の入力画面ID15aに対応付けられた端末ID15bを読み出す。そして、入力送信部17は、端末ID15bが示す端末4へ送信する。そして、入力送信部17は、ステップS36に移行する。
ステップS40において、関連情報受信部18は、コピー情報を、対応する端末4から受信する(ステップS40)。そして、表示制御部19は、受信したコピー情報を入力エリアのフォーカスされた位置に挿入する(ステップS41)。そして、情報処理装置1は、情報処理を終了する。
これにより、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、端末4を持つユーザが指定するコピー情報を、当該ユーザが指定する位置にペーストすることができる。すなわち、情報処理装置1は、入力操作を、端末4を持つユーザに対して最適化(パーソナライズ)することができる。
なお、以下に、実施例1に係る情報処理システム9の変形例を、図7〜図10を参照して説明する。
1つ目の変形例について説明する。実施例1では、情報処理装置1が、仮名漢字変換について、入力部3と端末4とを対応付けた後、入力部3を用いて仮名などをユーザに入力させると説明した。しかしながら、情報処理装置1は、これに限定されず、入力部3と端末4とを対応付けた後、入力部3に代えて、端末4に接続された機器を用いて仮名などをユーザに入力させても良い。ここで、入力部3と端末4とを対応付けた後、入力部3に代えて、端末4に接続された機器を用いて仮名などをユーザに入力させる場合を、図7を参照して説明する。
図7は、実施例1に係る情報処理システムの第1の変形例を示す図である。図7では、端末4は、Bluetoothによりキーボード3Aと接続している。
図7に示すように、情報処理装置1が、入力部3と端末4とを対応付ける(c0)。続いて、ユーザがキーボード3Aを用いてフォーカスに対する仮名を入力する(c1)。ここでは、ユーザは、「けんぽう」と入力したとする。
すると、端末4は、入力された仮名を入力部3へ送信する(c2)。
情報処理装置1は、入力された仮名「けんぽう」を取得し、取得した仮名「けんぽう」を、入力部3に対応付けられた端末IDの端末4へ送信する(c3)。
端末4は、情報処理装置1から送信された仮名「けんぽう」を受信し、入力に関連する関連情報を算出する。ここでは、端末4は、入力が示す仮名「けんぽう」に対する仮名漢字変換候補を算出する。すなわち、端末4は、端末4固有の仮名漢字変換候補を算出する。そして、端末4は、算出された仮名漢字変換候補を情報処理装置1へ送信する(c4)。
情報処理装置1は、端末4から送信された仮名漢字変換候補を受信し、受信された仮名漢字変換候補を入力部3の近辺に表示することになる。これにより、情報処理装置1は、入力部3に代えてキーボード3Aを用いても、入力部3と端末4とを対応付けることで、仮名漢字変換の変換候補を、端末4を持つユーザに対して最適化(パーソナライズ)することができる。
2つ目の変形例について説明する。図7では、情報処理装置1が、仮名漢字変換について、入力部3と端末4とを対応付けた後、入力部3に代えて、端末4に接続された機器としてキーボード3Aから入力させるようにした。しかしながら、情報処理装置1は、端末4に接続された機器としてキーボード3Aに限定されず、音声文字入力装置3Bから入力させるようにしても良い。ここで、入力部3と端末4とを対応付けた後、入力部3に代えて、端末4に接続された機器として音声文字入力装置3Bから入力させる場合を、図8を参照して説明する。
図8は、実施例1に係る情報処理システムの第2の変形例を示す図である。図8では、端末4は、音声文字入力装置3Bと接続している。
図8に示すように、情報処理装置1が、入力部3と端末4とを対応付ける(d0)。続いて、ユーザが音声文字入力装置3Bを用いてフォーカスに対する仮名を入力する(d1)。ここでは、ユーザは、「けんぽう」と音声で入力したとする。
すると、端末4は、入力された仮名を入力部3へ送信する(d2)。
情報処理装置1は、入力された仮名「けんぽう」を取得し、取得した仮名「けんぽう」を、入力部3に対応付けられた端末IDの端末4へ送信する(d3)。
端末4は、情報処理装置1から送信された仮名「けんぽう」を受信し、入力に関連する関連情報を算出する。ここでは、端末4は、入力が示す仮名「けんぽう」に対する仮名漢字変換候補を算出する。すなわち、端末4は、端末4固有の仮名漢字変換候補を算出する。そして、端末4は、算出された仮名漢字変換候補を情報処理装置1へ送信する(d4)。
情報処理装置1は、端末4から送信された仮名漢字変換候補を受信し、受信された仮名漢字変換候補を入力部3の近辺に表示することになる。これにより、情報処理装置1は、入力部3に代えて音声文字入力装置3Bを用いても、入力部3と端末4とを対応付けることで、仮名漢字変換の変換候補を、端末4を持つユーザに対して最適化(パーソナライズ)することができる。
3つ目の変形例について説明する。図3および図4では、情報処理装置1が、仮名漢字変換について、入力部3と対応付けられた端末4により算出された仮名漢字変換候補を入力部3の近辺に表示するようにした。しかしながら、情報処理装置1は、これに限定されず、入力部3と対応付けられた端末4により算出された仮名漢字変換候補を端末4に表示するようにしても良い。ここで、入力部3と対応付けられた端末4により算出された仮名漢字変換候補を端末4に表示する場合を、図9を参照して説明する。
図9は、実施例1に係る情報処理システムの第3の変形例を示す図である。図9では、ユーザが入力部3を用いてフォーカスに対する仮名を入力したものとする、ここでは、ユーザは、「けんぽう」と入力したとする。
すると、情報処理装置1は、入力された仮名「けんぽう」を取得し、入力部3に対応付けられた端末4へ送信する(e1)。
端末4は、情報処理装置1から送信された仮名「けんぽう」を受信し、仮名「けんぽう」に対する仮名漢字変換候補を算出する。ここでは、仮名漢字変換候補として「けんぽう、憲法、拳法、剣法、建保」のようにユーザの使用頻度の高い順で算出される。そして、端末4は、算出した仮名漢字変換候補を端末4の表示部2に表示する。
この後、端末4は、表示した仮名漢字変換候補から選択された漢字を情報処理装置1に送信する(e2)。ここでは、「憲法」が選択されたとする。
すると、情報処理装置1は、端末4から送信された「憲法」を受信し、入力エリアのフォーカスが検出された位置に挿入する。これにより、情報処理装置1は、入力部3に代えて、入力部3と対応付けられた端末4に仮名漢字変換候補を表示することで、ユーザにパーソナライズされた情報を秘匿することが可能となる。
4つ目の変形例について説明する。図9では、情報処理装置1が、仮名漢字変換について、入力部3と対応付けられた端末4により算出された仮名漢字変換候補の全部を端末4に表示するようにした。しかしながら、情報処理装置1は、これに限定されず、入力部3と対応付けられた端末4により算出された仮名漢字変換候補の一部を端末4に表示し、別の一部を入力部3の近辺に表示するようにしても良い。ここで、入力部3と対応付けられた端末4により算出された仮名漢字変換候補の一部を端末4に表示し、別の一部を入力部3の近辺に表示する場合を、図10を参照して説明する。
図10は、実施例1に係る情報処理システムの第4の変形例を示す図である。図10では、ユーザが入力部3を用いてフォーカスに対する仮名を入力したものとする、ここでは、ユーザは、「けんぽう」と入力したとする。
すると、情報処理装置1は、入力された仮名「けんぽう」を取得し、取得した仮名「けんぽう」に対する仮名漢字変換候補を算出する。ここでは、情報処理装置1は、ユーザにパーソナライズされていない変換エンジンを用いて仮名に対する仮名漢字変換候補を算出すれば良い。そして、情報処理装置1は、取得した仮名「けんぽう」と算出した仮名漢字変換候補とを入力部3に対応付けられた端末4へ送信する(f1)。
端末4は、情報処理装置1から送信された仮名「けんぽう」を受信し、仮名「けんぽう」に対する仮名漢字変換候補を算出する。ここでは、仮名漢字変換候補として「けんぽう、憲法、拳法、剣法、建保」のようにユーザの使用頻度の高い順で算出される。加えて、端末4は、端末4によって算出された仮名漢字変換候補から、情報処理装置1から送信された仮名漢字変換候補を差し引き、残りの仮名漢字変換候補を端末4の表示部に表示する。すなわち、端末4は、端末4固有の特殊な漢字変換候補のみを表示する。そして、端末4は、情報処理装置1から送信された仮名漢字変換候補を情報処理装置1へ送信する(f2)。
情報処理装置1は、端末4から送信された仮名漢字変換候補を入力部3の近辺に表示する。この後、情報処理装置1は、入力部3の近辺に表示された仮名漢字変換候補から選択された漢字または端末4に表示された仮名漢字変換候補から選択された漢字を、例えば入力エリアのフォーカスが検出された位置に挿入する。これにより、情報処理装置1は、入力部3に代えて、入力部3と対応付けられた端末4に端末4固有の特殊な仮名漢字変換候補のみを表示することで、ユーザにパーソナライズされた情報を秘匿することが可能となる。例えば、情報処理装置1は、名前や住所などの個人情報における仮名漢字変換候補を端末4に表示することで、ユーザにパーソナライズされた個人情報を秘匿することが可能となる。
[実施例1の効果]
このようにして、上記実施例1では、情報処理システム9は、情報処理装置1と、情報処理装置1に接続する複数の端末4と、情報処理装置1に接続する表示部2とを有する。そして、表示部2は、複数の入力部3と関連する。情報処理装置1は、表示部2の入力エリアへのフォーカスを検出する。情報処理装置1は、ユーザが持つ端末4から出力されるセンサ情報を受信する。情報処理装置1は、受信されたセンサ情報により端末4が識別される場合には、端末4と、検出されたフォーカスの入力エリアへ入力するために用いられる入力部3とを対応付ける。情報処理装置1は、入力部3からフォーカスに対する入力を取得すると、取得された入力を、入力部3に対応付けられた端末4へ送信する。かかる構成によれば、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、入力に関わる情報を、端末4を持つユーザ固有の情報に最適化(パーソナライズ)することができる。
また、上記実施例1では、端末4は、端末4に保持された情報を用いて端末4の固有の入力に関わる情報を取得し、取得した情報を情報処理装置1へ送信する。情報処理装置1は、端末4から端末4の固有の入力に関わる情報を受信し、受信した情報を端末4に対応付けられた入力部3の近辺に表示する。かかる構成によれば、情報処理装置1は、端末4を持つユーザ固有の入力に係る情報をユーザに対して表示することができる。
また、上記実施例1では、情報処理装置1は、情報処理装置1に保持された情報を用いて得られた入力に関わる情報を表示する。そして、端末4は、端末4に保持された情報を用いて得られた入力に関わる情報から情報処理装置1に保持された情報を用いて得られた入力に関わる情報を差し引いた情報を表示する。かかる構成によれば、情報処理装置1は、端末4を持つユーザにパーソナライズされた入力に係る情報を秘匿することができる。
ところで、実施例1では、情報処理装置1が、入力部3と端末4とを対応付けた後、入力部3からの入力を端末4に送信し、端末4が、送信された入力に関連する関連情報を算出すると説明した。しかしながら、端末4が、入力に関連する関連情報を算出することに限定されず、サーバによって算出された関連情報を取得しても良い。
そこで、実施例2では、端末4と接続するサーバが、入力に関連する関連情報を算出し、端末4が、サーバによって算出された関連情報を取得する場合について説明する。
[実施例2に係る情報処理システムの構成]
図11は、実施例2に係る情報処理システムの構成を示す機能ブロック図である。なお、図1に示す情報処理システム9と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、端末4から関連情報算出部44を削除し、端末4に認証情報管理部46A、サーバ送信部46Bおよびサーバ受信部46Cを追加した点にある。また、実施例1と実施例2とが異なるところは、サーバ5を追加した点にある。サーバ5は、入力受信部51、関連情報算出部52および関連情報送信部53を有する。
認証情報管理部46Aは、端末4を認証させるための認証情報を管理する。
サーバ送信部46Bは、入力受信部43によって受信された入力を認証情報と合わせて、サーバ5に送信する。例えば、サーバ送信部46Bは、入力が示す仮名および端末4の個人認証情報をサーバ5に送信する。
サーバ受信部46Cは、サーバ5によって算出された入力に関連する関連情報を、サーバ5から受信する。例えば、サーバ受信部46Cは、サーバ5から、入力が示す仮名に対する仮名漢字変換候補を受信する。
そして、サーバ受信部46Cは、受信した入力に関連する関連情報を関連情報送信部45に出力する。この後、関連情報送信部45は、出力された入力に関連する関連情報を情報処理装置1へ送信する。
入力受信部51は、端末4から入力および認証情報を受信する。例えば、入力受信部51は、端末4から、入力が示す仮名および端末4の個人認証情報を受信する。
関連情報算出部52は、端末4から受信された認証情報を用いて端末4の認証に成功した場合には、入力受信部51によって受信された入力に関連する関連情報を算出する。例えば、関連情報算出部52は、入力が示す仮名に対する仮名漢字変換候補を端末4ごとにパーソナライズされた情報から読出し、読み出した仮名漢字変換候補に含まれる漢字を頻度の高い順に並べ替える。なお、サーバ5は、仮名漢字変換候補について、端末4ごとにパーソナライズされた情報を管理することとする。
関連情報送信部53は、関連情報算出部52によって算出された入力に関連する関連情報を端末4へ送信する。例えば、関連情報送信部53は、関連情報算出部52によって並び替えられた、入力が示す仮名の仮名漢字変換候補を端末4へ送信する。
[入力に関連する関連情報をサーバから取得する場合]
図12は、入力に関連する関連情報をサーバから取得する場合を説明する図である。なお、図12では、対応付け算出部13は、加速度センサのセンサ情報を用いて、センサ情報を出力した端末4と入力部3とを対応付けたものとする(g0)。なお、入力部3は、ソフトキーボードであるとする。
ユーザは入力部3を用いてフォーカスに対する仮名を入力する。ここでは、ユーザは、「けんぽう」と入力したとする。すると、情報処理装置1では、入力取得部16は、入力部3から入力された仮名「けんぽう」を取得する。そして、入力送信部17は、取得された仮名「けんぽう」を、入力部3に対応付けられた端末IDの端末4へ送信する(g1)。
端末4では、入力受信部43が、情報処理装置1から送信された仮名「けんぽう」を受信する。そして、サーバ送信部46Bは、受信した仮名「けんぽう」に端末4に含まれる個人認証情報を合わせて、Webサービスに送信する(g2)。ここでは、サーバ5は、Webサービスの一例である。
サーバ5では、関連情報算出部52が、入力が示す仮名「けんぽう」に対する仮名漢字変換候補を算出する。すなわち、関連情報算出部52は、端末4固有の仮名漢字変換候補を算出する。一例として、仮名漢字変換候補として「けんぽう、憲法、拳法、剣法、建保」のようにユーザの使用頻度の高い順で算出される。そして、関連情報送信部53は、算出された仮名漢字変換候補を端末4へ送信する(g3)。
端末4では、サーバ受信部46Cがサーバ5から仮名漢字変換候補を受信し、関連情報送信部45は、受信した仮名漢字変換候補を情報処理装置1へ送信する(g4)。
情報処理装置1では、関連情報受信部18が、端末4から送信された仮名漢字変換候補を受信し、表示制御部19は、受信された仮名漢字変換候補を入力部3の近辺に表示する。これにより、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、サーバ5によって変換された仮名漢字変換の変換候補を、端末4を持つユーザに対して表示することができる。
[実施例2の効果]
このようにして、上記実施例2では、端末4は、サーバ5から端末4の固有の入力に関わる情報を取得し、取得した情報を情報処理装置1へ送信する。情報処理装置1は、端末4から端末4の固有の入力に関わる情報を受信し、受信した情報を、端末4に対応付けられた入力部3の近辺に表示する。かかる構成によれば、情報処理装置1は、サーバ5から取得された入力に係る情報を、端末4を持つユーザに対して表示することができる。
ところで、実施例1では、情報処理装置1が、入力部3と端末4とを対応付けた後、入力部3からの入力を端末4に送信し、端末4が、送信された入力に関連する関連情報を算出すると説明した。しかしながら、端末4が、入力に関連する関連情報を算出することに限定されず、情報処理装置1が、端末4の入力に関わる学習辞書を用いて入力に関連する関連情報を算出しても良い。
そこで、実施例3では、情報処理装置1が、端末4の入力に関わる学習辞書を用いて入力に関連する関連情報を算出する場合について説明する。
[実施例3に係る情報処理システムの構成]
図13は、実施例3に係る情報処理システムの構成を示す機能ブロック図である。なお、図1に示す情報処理システム9と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例3とが異なるところは、端末4から入力受信部43、関連情報算出部44および関連情報送信部45を削除し、端末4に学習データ送信部47Bおよび学習データ管理部47Aを追加した点にある。また、実施例1と実施例3とが異なるところは、情報処理装置1から入力送信部17おおび関連情報受信部18を削除し、学習データ受信部61、学習データ管理部62および関連情報算出部63を追加した点にある。
学習データ受信部61は、端末4に対して入力に関わる学習辞書を要求し、要求した結果、端末4から入力に関わる学習辞書を受信する。例えば、学習データ受信部61は、対応付け管理部14によって端末4と入力部3との対応付けが管理されると、端末4に対して仮名漢字変換の学習辞書を要求する。そして、学習データ受信部61は、要求した結果、端末4から仮名漢字変換の学習辞書を受信する。
学習データ管理部62は、学習データ受信部61によって受信された入力に関わる学習辞書を管理する。例えば、学習データ管理部62は、学習データ受信部61によって受信された仮名漢字変換の学習辞書と端末4とを対応付けて管理する。
関連情報算出部63は、入力取得部16によって取得された入力に関連する関連情報を算出する。例えば、関連情報算出部63は、対応付け管理テーブル15を参照し、入力取得部16によって取得された入力を入力した入力部3に対応付けられた端末4の端末ID15bを取得する。関連情報算出部63は、学習データ管理部62によって管理された、端末ID15bが示す端末4に対応付けられた仮名漢字変換の学習辞書を用いて、入力が示す仮名に対する仮名漢字変換候補を算出する。一例として、関連情報算出部63は、入力が示す仮名に対する仮名漢字変換候補を仮名漢字変換の学習辞書から読み出し、読み出した仮名漢字変換候補に含まれる漢字をユーザの使用頻度の高い順に並べ替える。
学習データ管理部47Aは、端末4固有の入力に関わる学習辞書を管理する。例えば、学習データ管理部47Aは、端末4固有の仮名漢字変換の学習辞書を保持する。
学習データ送信部47Bは、情報処理装置1から入力に関わる学習辞書が要求されると、要求された入力に関わる学習辞書を情報処理装置1へ送信する。例えば、学習データ送信部47Bは、情報処理装置1から仮名漢字変換の学習辞書が要求されると、端末4に保持された仮名漢字変換の学習辞書を情報処理装置1へ送信する。
[入力に関連する関連情報を情報処理装置が算出する場合]
図14は、入力に関連する関連情報を情報処理装置1が算出する場合を説明する図である。なお、図14では、対応付け算出部13は、加速度センサのセンサ情報を用いて、センサ情報を出力した端末4と入力部3とを対応付けるものとする。なお、入力部3は、ソフトキーボードであるとする。
端末4と入力部3とが対応付けられる(h0)と、情報処理装置1では、学習データ受信部61が、対応付けられた端末4に対して仮名漢字変換の学習辞書を要求する(h1)。そして、学習データ受信部61は、端末4から仮名漢字変換の学習辞書を受信し(h2)、仮名漢字変換の学習辞書と端末4とを対応付けて管理する。
そして、ユーザは入力部3を用いてフォーカスに対する仮名を入力する。ここでは、ユーザは、「けんぽう」と入力したとする。すると、情報処理装置1では、入力取得部16は、入力部3から入力された仮名「けんぽう」を取得する(h3)。そして、関連情報算出部63は、入力が示す仮名「けんぽう」に対する仮名漢字変換候補を、入力部3に対応付けられた端末4の仮名漢字変換の学習辞書および変換エンジンを用いて算出する。すなわち、関連情報算出部63が、端末4固有の仮名漢字変換候補を算出する。一例として、仮名漢字変換候補として「けんぽう、憲法、拳法、剣法、建保」のようにユーザの使用頻度の高い順で算出される。
そして、表示制御部19は、算出された仮名漢字変換候補を入力部3の近辺に表示する(h4)。これにより、情報処理装置1は、端末4のセンサを利用し、入力部3と端末4とを対応付けることで、端末4の仮名漢字変換の学習辞書を用いて入力部3に入力された仮名に対して仮名漢字変換の変換候補を算出できる。この結果、情報処理装置1は、算出した結果を、端末4を持つユーザに対して表示することができる。
[実施例3の効果]
このようにして、上記実施例3では、端末4は、端末4の固有の入力に関わる学習辞書を情報処理装置1に送信する。情報処理装置1は、端末4から送信された学習辞書を用いて端末4の固有の入力に関わる情報を取得し、取得した情報を端末4に対応付けられた入力部3の近辺に表示する。かかる構成によれば、情報処理装置1は、端末4の入力に関わる学習辞書を用いて入力に関わる情報を算出でき、算出した結果を、端末4を持つユーザに対して表示することができる。
なお、実施例1〜3では、空間UIにおいて適用されると説明した。しかしながら、実施例1〜3は、これに限定されず、デジタルサイネージなどに適用することも可能である。例えば、情報処理装置1と接続する表示部2が所定の場所に表示され、各端末4を持った利用者が表示部2に表示される入力部3に所望する情報のキーワードを入力する場合に適用可能である。所定の場所は、店頭、公共機関、交通機関などのいかなる場所であっても良い。
[その他]
なお、情報処理装置1は、既知のパーソナルコンピュータ、ワークステーションなどの情報処理装置に、上記した表示部2、入力部3および各機能部11〜19などを搭載することによって実現することができる。
また、図示した装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、対応付け算出部13と、対応付け管理部14とを1個の部として統合しても良い。
また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した情報処理装置1と同様の機能を実現する情報処理プログラムを実行するコンピュータの一例を説明する。図15は、情報処理プログラムを実行するコンピュータの一例を示す図である。
図15に示すように、コンピュータ200は、各種演算処理を実行するCPU203と、ユーザからのデータの入力を受け付ける入力装置215と、表示装置209を制御する表示制御部207とを有する。また、コンピュータ200は、記憶媒体からプログラムなどを読み取るドライブ装置213と、ネットワークを介して他のコンピュータとの間でデータの授受を行う通信制御部217とを有する。また、コンピュータ200は、各種情報を一時記憶するメモリ201と、HDD205を有する。そして、メモリ201、CPU203、HDD205、表示制御部207、ドライブ装置213、入力装置215、通信制御部217は、バス219で接続されている。
ドライブ装置213は、例えばリムーバブルディスク211用の装置である。
CPU203は、情報処理プログラム205aを読み出して、メモリ201に展開し、プロセスとして実行する。かかるプロセスは、情報処理装置1の各機能部に対応する。情報処理関連情報205bは、情報処理装置1の図示しない記憶部に記憶された対応付け管理テーブル15などの情報に対応する。そして、例えばリムーバブルディスク211が、情報処理プログラム205aなどの各情報を記憶する。
なお、情報処理プログラム205aについては、必ずしも最初からHDD205に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に当該プログラムを記憶させておく。そして、コンピュータ200がこれらから情報処理プログラム205aを読み出して実行するようにしても良い。
1 情報処理装置
11 フォーカス検出部
12 センサ受信部
13 対応付け算出部
14 対応付け管理部
15 対応付け管理テーブル
16 入力取得部
17 入力送信部
18 関連情報受信部
19 表示制御部
2 表示部
3 入力部
4 端末
41 センサ検出部
42 センサ送信部
43,51 入力受信部
44,52,63 関連情報算出部
45,53 関連情報送信部
46A 認証情報管理部
46B サーバ送信部
46C サーバ受信部
47A 学習データ管理部
47B 学習データ送信部
5 サーバ
61 学習データ受信部
62 学習データ管理部
9 情報処理システム

Claims (8)

  1. 情報処理装置と、
    前記情報処理装置に接続する複数の端末と、
    前記情報処理装置に接続するディスプレイと、を有し、
    前記ディスプレイは、複数のユーザインタフェースと関連し、
    前記情報処理装置は、
    前記ディスプレイの入力エリアへのフォーカスを検出する検出部と、
    ユーザが持つ端末から出力されるセンサ情報を受信する受信部と、
    前記受信部によって受信されたセンサ情報により前記端末が識別される場合には、前記端末と前記検出部によって検出されたフォーカスの入力エリアへ入力するために用いられる前記ユーザインタフェースとを対応付ける対応付け部と、
    前記ユーザインタフェースから前記フォーカスに対する入力を取得する取得部と、
    前記取得部によって取得された入力を、前記ユーザインタフェースに対応付けられた前記端末へ送信する送信部と、
    を有することを特徴とする情報処理システム。
  2. 前記端末は、
    前記端末に保持された情報を用いて前記端末の固有の前記入力に関わる情報を取得し、取得した情報を前記情報処理装置へ送信する送信部を有し、
    前記情報処理装置は、
    前記端末から前記端末の固有の前記入力に関わる情報を受信し、受信した情報を前記端末に対応付けられた前記ユーザインタフェースの近傍に表示する表示部
    を有することを特徴とする請求項1に記載の情報処理システム。
  3. 前記端末は、
    ウェブサービスから前記端末の固有の前記入力に関わる情報を取得し、取得した情報を前記情報処理装置へ送信する送信部を有し、
    前記情報処理装置は、
    前記端末から前記端末の固有の前記入力に関わる情報を受信し、受信した情報を前記端末に対応付けられた前記ユーザインタフェースの近傍に表示する表示部
    を有することを特徴とする請求項1に記載の情報処理システム。
  4. 前記端末は、
    前記端末の固有の前記入力に関わる学習辞書を前記情報処理装置に送信する送信部を有し、
    前記情報処理装置は、
    前記端末から送信された学習辞書を用いて前記端末の固有の前記入力に関わる情報を取得し、取得した情報を前記端末に対応付けられた前記ユーザインタフェースの近傍に表示する表示部
    を有することを特徴とする請求項1に記載の情報処理システム。
  5. 前記情報処理装置は、
    前記情報処理装置に保持された情報を用いて得られた前記入力に関わる情報を表示する表示部を有し、
    前記端末は、
    前記端末に保持された情報を用いて得られた前記入力に関わる情報から前記情報処理装置に保持された情報を用いて得られた前記入力に関わる情報を差し引いた情報を表示する表示部を有する
    ことを特徴とする請求項1に記載の情報処理システム。
  6. 前記入力に関わる情報は、前記入力に関わる変換候補の情報である
    ことを特徴とする請求項2から請求項5のいずれか1つに記載の情報処理システム。
  7. 複数のユーザインタフェースと関連するディスプレイの入力エリアへのフォーカスを検出する検出部と、
    ユーザが持つ端末から出力されるセンサ情報を受信する受信部と、
    前記受信部によって受信されたセンサ情報により前記端末が識別される場合には、前記端末と前記検出部によって検出されたフォーカスの入力エリアへ入力するために用いられる前記ユーザインタフェースとを対応付ける対応付け部と、
    前記ユーザインタフェースから前記フォーカスに対する入力を取得する取得部と、
    前記取得部によって取得された入力を、前記ユーザインタフェースに対応付けられた前記端末へ送信する送信部と、
    を有することを特徴とする情報処理装置。
  8. コンピュータが、
    複数のユーザインタフェースと関連するディスプレイの入力エリアへのフォーカスを検出し、
    ユーザが持つ端末から出力されるセンサ情報を受信し、
    該受信されたセンサ情報により前記端末が識別される場合には、前記端末と、該検出されたフォーカスの入力エリアへ入力するために用いられる前記ユーザインタフェースとを対応付け、
    前記ユーザインタフェースから前記フォーカスに対する入力を取得し、
    該取得された入力を、前記ユーザインタフェースに対応付けられた前記端末へ送信する
    各処理を実行することを特徴とする情報処理方法。
JP2017068549A 2017-03-30 2017-03-30 情報処理システム、情報処理装置および情報処理方法 Active JP6763333B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017068549A JP6763333B2 (ja) 2017-03-30 2017-03-30 情報処理システム、情報処理装置および情報処理方法
US15/938,402 US10901522B2 (en) 2017-03-30 2018-03-28 Information processing system, apparatus and method for multi user soft keyboards

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017068549A JP6763333B2 (ja) 2017-03-30 2017-03-30 情報処理システム、情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2018169937A true JP2018169937A (ja) 2018-11-01
JP6763333B2 JP6763333B2 (ja) 2020-09-30

Family

ID=63671708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017068549A Active JP6763333B2 (ja) 2017-03-30 2017-03-30 情報処理システム、情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US10901522B2 (ja)
JP (1) JP6763333B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367639B2 (ja) * 2020-08-31 2023-10-24 株式会社リコー 表示装置、表示方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118735A (ja) * 2009-12-04 2011-06-16 Kddi Corp 文書作成支援システムおよびその情報端末
JP2014029686A (ja) * 2012-07-06 2014-02-13 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、コンピュータ読み取り可能な記録媒体
JP2014194669A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd 端末装置、変換文字候補同期方法及び変換文字候補同期プログラム
JP2015082168A (ja) * 2013-10-22 2015-04-27 シャープ株式会社 画像表示装置
JP2015118697A (ja) * 2013-11-13 2015-06-25 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346179A (ja) 2004-05-31 2005-12-15 Canon Inc 画像処理装置および表示制御方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
US7899664B2 (en) * 2006-05-22 2011-03-01 Sharp Kabushiki Kaisha Information processing apparatus, computer, information processing system, information processing method, and program for receiving a character string and returning conversion candidates
JP2007310784A (ja) 2006-05-22 2007-11-29 Sharp Corp 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US20090231281A1 (en) * 2008-03-11 2009-09-17 Microsoft Corporation Multi-touch virtual keyboard
US20100030549A1 (en) * 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
JP2010181992A (ja) 2009-02-04 2010-08-19 Nec Corp 学習成果利用システム
US20120209589A1 (en) * 2011-02-11 2012-08-16 Samsung Electronics Co. Ltd. Message handling method and system
JP5875675B2 (ja) * 2011-05-05 2016-03-02 オルツボ, インコーポレイテッド 近接するモバイルデバイス間の言語間通信
US9785628B2 (en) * 2011-09-29 2017-10-10 Microsoft Technology Licensing, Llc System, method and computer-readable storage device for providing cloud-based shared vocabulary/typing history for efficient social communication
KR102039553B1 (ko) * 2012-08-31 2019-11-01 삼성전자 주식회사 사용자 디바이스에서 입력 문자를 이용한 지능형 서비스 제공 방법 및 장치
US10139990B2 (en) * 2014-01-13 2018-11-27 Lg Electronics Inc. Display apparatus for content from multiple users
JP5963806B2 (ja) 2014-05-30 2016-08-03 京セラドキュメントソリューションズ株式会社 文字入力システム、情報処理装置、文字入力方法
US9965569B2 (en) * 2015-03-13 2018-05-08 Microsoft Technology Licensing, Llc Truncated autosuggest on a touchscreen computing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118735A (ja) * 2009-12-04 2011-06-16 Kddi Corp 文書作成支援システムおよびその情報端末
JP2014029686A (ja) * 2012-07-06 2014-02-13 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、コンピュータ読み取り可能な記録媒体
JP2014194669A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd 端末装置、変換文字候補同期方法及び変換文字候補同期プログラム
JP2015082168A (ja) * 2013-10-22 2015-04-27 シャープ株式会社 画像表示装置
JP2015118697A (ja) * 2013-11-13 2015-06-25 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP6763333B2 (ja) 2020-09-30
US20180284903A1 (en) 2018-10-04
US10901522B2 (en) 2021-01-26

Similar Documents

Publication Publication Date Title
JP6812392B2 (ja) 情報出力方法、情報出力装置、端末装置及びコンピュータ読取可能な記憶媒体
CN101911064B (zh) 用于实现分布式多模态应用的方法和装置
US9171142B2 (en) Arrangements for identifying users in a multi-touch surface environment
CN109558106A (zh) 信息处理终端和方法、用于信息处理的系统及存储介质
CN101960485A (zh) 多情境图形处理
CN104583927A (zh) 用户终端中的用户接口装置以及用于支持该用户接口装置的方法
CN110036401A (zh) 用于简档管理的交互式用户界面
KR102573725B1 (ko) 콘텐트 프리로딩 방법 및 이를 지원하는 전자 장치
JP7013193B2 (ja) システム、システムの制御方法、音声操作装置、音声操作装置の制御方法、およびプログラム
US20140157433A1 (en) Management apparatus, membership managing method, service providing apparatus, and membership managing system
JP5336214B2 (ja) 利用者登録システム、サーバ、利用者登録方法、及びプログラム
CN105354733B (zh) 签收验证方法和装置
JP2007049343A (ja) 認証システム
JP6763333B2 (ja) 情報処理システム、情報処理装置および情報処理方法
JP2022518990A (ja) 拡張手書き署名認証方法及びこれをサポートする電子装置{Augmented signature authentication method and electronic device}
JP7051243B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2009064212A (ja) ポイントサービスシステムおよびそのネットワークサーバ
CN112309387A (zh) 用于处理信息的方法和装置
JP2018055022A (ja) 音声認識システム、情報処理装置、プログラム
Jewell et al. Enabling technology
CN107533522B (zh) 信息链接系统、信息链接程序和操作信息链接系统的方法
JP6673436B1 (ja) 処理装置、処理システム、処理方法及びプログラム
KR101666436B1 (ko) 네트워크 접속 여부에 따라 출력정보가 변경되는 전자책 서비스를 제공하는 독자단말
JP5686865B2 (ja) サーバ、サービス情報送信方法、及びプログラム
US10402047B2 (en) Communication device crawler

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150