JP6843723B2 - サーバ装置、サーバクライアントシステム及びプログラム - Google Patents

サーバ装置、サーバクライアントシステム及びプログラム Download PDF

Info

Publication number
JP6843723B2
JP6843723B2 JP2017191549A JP2017191549A JP6843723B2 JP 6843723 B2 JP6843723 B2 JP 6843723B2 JP 2017191549 A JP2017191549 A JP 2017191549A JP 2017191549 A JP2017191549 A JP 2017191549A JP 6843723 B2 JP6843723 B2 JP 6843723B2
Authority
JP
Japan
Prior art keywords
identification information
user
voice
login
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017191549A
Other languages
English (en)
Other versions
JP2019067112A (ja
Inventor
近藤 克佳
克佳 近藤
昭範 大西
昭範 大西
洋樹 棟朝
洋樹 棟朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017191549A priority Critical patent/JP6843723B2/ja
Priority to CN201811125831.6A priority patent/CN109600353B/zh
Priority to US16/147,726 priority patent/US11037575B2/en
Publication of JP2019067112A publication Critical patent/JP2019067112A/ja
Application granted granted Critical
Publication of JP6843723B2 publication Critical patent/JP6843723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、サーバ装置等に関する。
従来より、サーバにログインして各種サービスの提供を受ける仕組みが種々提供されている。例えば、ファイル共有サービスや、SNS等のサービス、電子メールサービスといったサービスを利用する場合、各サービスを提供しているサーバにログインする必要がある。
また、社内等において、情報の共有や会議を行う場合に、社内サーバにログインする場合もある。例えば、会議を行う場合は、資料を大型の表示装置に表示して、表示装置を見ながら会議を進める会議支援システム等が提供されている。
例えば、ホストコンピュータへのログイン毎に、前回の会議で指定された重要な課題点、復習事項などを表示装置に表示させる会議支援システムが開示されている(例えば、特許文献1参照)。
また、ログインを容易にするための技術も提案されており、例えば、声紋認証手段を有したユーザ認証システムであって、ユーザ認証時に得られる最新の声紋データでユーザプロファイルを更新することで、ユーザの体型や声帯変化によって声紋データが経時変化しても、声紋認証の誤判定を防止するシステムが開示されている(例えば、特許文献2参照)。
特開2008−257441号公報 特開2007−52496号公報
ここで、一般的にログインを行う場合は、ユーザが誰であるかを特定するために、ユーザを認証することがされている。この場合、ユーザはログインIDやパスワードを記憶し、また、これらを正しく入力するための手間も生じる。また、大型の表示装置で構成される会議支援システムでは、物理的なキーボードを備えておらず、ソフトウェアキーボードによる入力手段で構成される場合があるが、この場合はログイン時のパスワード入力が第三者に見られやすいという問題もある。
また、従来のログインのシステムでは、サーバ装置に、本人確認のための情報を登録しておく必要があった。例えば、音声認証を利用する場合、声紋による本人確認のため予め声紋情報を事前登録しておく手間があった。また、音声認証自体は、外部の雑音による影響により認証が失敗する可能性があった。
上記事情に鑑み、本発明は、識別装置から送信される識別情報と、利用者の音声を利用することで、容易にログインすることが可能なサーバ装置等を提供することを目的とする。
上述した課題を解決するために、本発明のサーバ装置は、
利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置であって、
利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
識別装置から、前記識別情報を受信する識別情報受信手段と、
音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
前記識別情報と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可するログイン手段と、
前記ログイン手段によりログインを許可された利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御手段と、
を備えたことを特徴とする。
本発明のサーバ装置は、
利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置であって、
利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
識別装置から、前記識別情報を受信する識別情報受信手段と、
音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
前記識別情報と、前記音声識別情報とが一致した場合には、前記クライアント装置に、前記識別情報に対応する利用者の利用者識別情報を送信する利用者識別情報送信手段と、
前記利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御手段と、
を備えたことを特徴とする。
本発明のサーバクライアントシステムは、
利用者に対応したコンテンツを処理可能なクライアント装置と、識別情報が記憶された識別装置と、前記クライアント装置との間で通信を行うサーバ装置と、を備えたサーバクライアントシステムであって、
前記識別装置は、利用者の選択操作により、前記サーバ装置に識別情報を送信する識別情報送信手段を備え、
前記サーバ装置は、
利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
前記識別装置から、前記識別情報を受信する識別情報受信手段と、
音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
前記識別情報と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可するログイン手段と、
前記ログイン手段によりログインを許可された利用者に対応づけられたコンテンツを前記クライアント装置に送信するコンテンツ送信手段と、
を備え、
前記クライアント装置は、
前記サーバ装置からコンテンツを受信し、表示する制御を行うコンテンツ表示制御手段を備える、
ことを特徴とする。
本発明のサーバクライアントシステムは、
利用者に対応したコンテンツを処理可能なクライアント装置と、識別情報が記憶された識別装置と、前記クライアント装置との間で通信を行うサーバ装置と、を備えたサーバクライアントシステムであって 、
前記識別装置は、利用者の選択操作により、前記サーバ装置に識別情報を送信する識別情報送信手段を備え、
前記サーバ装置は、
利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
前記識別装置から、前記識別情報を受信する識別情報受信手段と、
音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
前記識別情報と、前記音声識別情報とが一致した場合には、前記クライアント装置に、前記識別情報に対応する利用者の利用者識別情報を送信する利用者識別情報送信手段と、
前記クライアント装置から送信されるログイン許可情報を受信するログイン許可情報受信手段と、
前記受信したログイン許可情報に基づき、ログインが許可された利用者に対応づけられたコンテンツを前記クライアント装置に送信するコンテンツ送信手段と、
を備え、
前記クライアント装置は、
前記サーバ装置から前記利用者識別情報を受信するログイン情報受信手段と、
前記利用者識別情報に基づき、利用者識別情報に対応する利用者のログインを許可するログイン許可手段と、
前記利用者のログインを許可した場合は、前記サーバ装置にログイン許可情報を送信するログイン許可情報送信手段と、
前記サーバ装置からコンテンツを受信し、表示する制御を行うコンテンツ表示制御手段と、
を備えることを特徴とする。
本発明のプログラムは、
利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置に、
利用者と、識別情報とを対応づけて記憶する識別情報記憶機能と、
識別装置から、前記識別情報を受信する識別情報受信機能と、
音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識機能と、
前記識別情報と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可するログイン機能と、
前記ログイン機能によりログインを許可された利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御機能と、
を実現させることを特徴とする。
本発明のプログラムは、
利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置に、
利用者と、識別情報とを対応づけて記憶する識別情報記憶機能と、
識別装置から、前記識別情報を受信する識別情報受信機能と、
音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識機能と、
前記識別情報と、前記音声識別情報とが一致した場合には、前記クライアント装置に、前記識別情報に対応する利用者の利用者識別情報を送信する利用者識別情報送信機能と、
前記利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御機能と、
を実現させることを特徴とする。
本発明のサーバ装置によれば、識別装置から送信される識別情報と、音声入出力装置から送信される音声データに基づく音声識別情報とが一致することにより、利用者のログインを許可する制御を行うことができる。したがって、利用者は、音声識別情報を発声すればよく、パスワードに依らないでログインすることが可能となる。また、音声認識処理としても発声された識別番号を認識できればよい為、声紋認証が不要となり、外部の雑音による影響を軽減でき、さらに本人確認用の声紋情報の事前登録も不要となる。
第1実施形態における会議支援システムの全体構成を説明するための図である。 第1実施形態におけるサーバ装置機能構成を説明するための図である。 第1実施形態におけるクライアント装置の機能構成を説明するための図である。 第1実施形態における識別装置の機能構成を説明するための図である。 第1実施形態におけるデバイス情報のデータ構成の一例を示した図である。 第1実施形態におけるアドレス対応情報のデータ構成の一例を示した図である。 第1実施形態におけるコンテンツ情報のデータ構成の一例を示した図である。 第1実施形態における処理の流れを説明するための図である。 第1実施形態における処理の流れを説明するための図である。 第2実施形態におけるデバイス情報のデータ構成の一例を示した図である。 第2実施形態における処理の流れの動作例を説明するための図である。 第3実施形態におけるデバイス情報のデータ構成の一例を示した図である。 第3実施形態における利用可能クライアント情報のデータ構成の一例を示した図である。 第3実施形態における処理の流れを説明するための図である。 第4実施形態におけるデバイス情報のデータ構成の一例を示した図である。 第4実施形態における質問情報のデータ構成の一例を示した図である。 第4実施形態における処理の流れの動作例を説明するための図である。 第5実施形態における会議支援システムの全体構成を説明するための図である。 第5実施形態における識別装置の機能構成を説明するための図である。 第5実施形態におけるデバイス情報のデータ構成の一例を示した図である。 第5実施形態における処理の流れを説明するための図である。 第5実施形態における処理の流れを説明するための図である。 第6実施形態における生体認証情報のデータ構成の一例を示した図である。 第6実施形態における処理の流れを説明するための図である。
以下、図面を参照して本発明を実施するための一実施形態について説明する。なお、説明の都合上、実施形態としては、本発明の表示装置をタッチパネルと一体となった表示装置に適用した場合を例に説明するが、利用者の操作入力により、コンテンツの操作が可能な表示装置であれば、何れの装置であっても適用可能なことは勿論である。
[1.第1実施形態]
[1.1 全体構成]
まず、本発明を適用したサーバ装置10を含む会議支援システム1の外観を図1に示す。本実施形態における会議支援システムは、サーバ装置10と、クライアント装置20と、AP(アクセスポイント)とが、NW(ネットワーク)を介して接続されている。また、識別装置30と、音声入出力装置40とがAPに接続されている。図1においては、図示した装置が同一のネットワークに接続されているものとして示しているが、インターネット等の外部ネットワークを介して接続されていてもよい。例えば、サーバ装置10が、クラウド環境に配置されていてもよい。
[1.2 機能構成]
[1.2.1 サーバ装置]
つづいて、サーバ装置10の機能構成について、図2を参照して説明する。サーバ装置10は、制御部100と、音声認識部110と、音声データ生成部120と、通信部130と、記憶部140とを備えて構成されている。
制御部100は、サーバ装置10の全体を制御するための機能部である。制御部100は、各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。
音声認識部110は、音声データを認識し、テキストデータに変換し、出力するための機能部である。音声データを認識してテキストデータに変換するために用いる技術としては、いずれか公知の手法を用いればよい。例えば、汎用大語彙連続音声認識エンジンであるJulius等を用いることができる。また、音声認識を行う外部サービスにネットワークを介して音声データを送信し、外部サービスからの認識結果を受信してもよい。
音声データ生成部120は、所定の音声を音声入出力装置40で発音させるために必要なデータを生成するための機能部である。例えば、音声入出力装置40が音声ファイルを再生することが可能であれば、MP3(MPEG-1 Audio Layer-3)やAAC(Advanced Audio Coding)といったファイルフォーマットの音声ファイルを生成する。
通信部130は、サーバ装置10が外部機器と通信を行うための機能部である。例えば、有線/無線LANで利用されるNIC(Network Interface Card)や、3G/LTE回線に接続可能な通信モジュールにより実現されている。
記憶部140は、サーバ装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等により構成されている。
記憶部140には、特に、識別装置30と当該識別装置30を所持する利用者とを対応付けた情報であるデバイス情報142と、クライアント装置20と音声入出力装置40とを対応付けたアドレス対応情報144と、クライアント装置20に表示するコンテンツを利用者と対応付けて記憶したコンテンツ情報146とが記憶されている。
デバイス情報142の具体的な内容について、図5を参照して説明する。デバイス情報142には、識別装置を識別するためのデバイスID(例えば、「1234−5678−9012」)と、利用者を識別するための利用者識別情報である利用者ID(例えば、「MU119」)とが記憶されている。すなわち、本実施形態においては、1つの識別装置30は、1人の利用者によって所持されていることとする。そして、識別装置30の識別情報であるデバイスIDと、利用者識別情報である利用者IDとによる対応関係を、デバイス情報142として記憶する。
デバイスIDとは、識別装置30を一意に特定できる番号である。デバイスIDとしては、識別装置30のシリアル番号を用いてもよいし、会議支援システム1の管理者が定めた文字列であってもよい。また、IPアドレスやMACアドレスといったアドレスを用いてもよく、識別装置30を一意に特定できる情報であれば、何れの情報であってもよい。
アドレス対応情報144の具体的な内容について、図6を参照して説明する。アドレス対応情報144には、音声入出力装置40のアドレス(例えば、「192.168.0.19」)と、クライアント装置20のアドレス(例えば、「192.168.0.119」)とが記憶されている。本実施形態では、アドレスとしてIPv4アドレスを記憶させているが、IPv6アドレスやMACアドレスなど、NWにおいて、音声入出力装置40及びクライアント装置20を特定することが可能である情報が記憶されていればよい。
ここで、本実施形態では、音声入出力装置40とクライアント装置20とを、それぞれ1台ずつ組み合わせて使用し、この対応関係をアドレス対応情報144として記憶する。すなわち、所定の音声入出力装置40を用いてログインの操作を行った場合、対応するクライアント装置20に対してログインが行われる。
例えば、会議支援システム1を利用することが可能な会議室が複数ある場合、それぞれの会議室に1台の音声入出力装置40とクライアント装置20とを用意し、会議室ごとに音声入出力装置40とクライアント装置20とを対応付けることとする。この場合、ある会議室に設置された音声入出力装置40を用いてログインの操作を行った場合、当該会議室に設置されたクライアント装置20に対してログインが許可されることとなる。
コンテンツ情報146の具体的な内容について、図7を参照して説明する。コンテンツ情報146には、当該コンテンツ情報の所有者である利用者を識別するための利用者ID(例えば、「MU119」)と、会議名(例えば、「仕様レビュー」)と、コンテンツデータをクライアント装置20でどのように表示するかを定義したレイアウトデータ(例えば、「lay1」)と、クライアント装置20で表示するためのコンテンツであるコンテンツデータ(例えば、「mtg.doc」)と、当該コンテンツ情報を最後に更新した最終更新日時(例えば、「2017/07/24 17:00」)とが記憶されている。
レイアウトデータは、コンテンツデータを表示する座標、表示領域の高さや幅、拡大率、ページ番号といったコンテンツデータの表示上の設定について定義したデータである。なお、コンテンツの表示上の設定をファイルに記憶し、当該ファイルのファイル名やファイルパスをレイアウトデータとして記憶させてもよい。本実施形態では、コンテンツの表示上の設定情報を記憶させたファイルのファイル名を、レイアウトデータとして記憶することとしている。
また、コンテンツデータは、例えば、プレゼンテーション形式のファイルのデータをそのまま記憶させてもよいし、コンテンツの実体であるファイルのファイル名やファイルパスを記憶させてもよい。本実施形態では、コンテンツの実体であるファイルのファイル名をコンテンツデータとして記憶することとしている。
レイアウトデータとコンテンツデータとを読み込み、レイアウトデータに定義された設定に従ってコンテンツデータをクライアント装置20に表示することで、コンテンツ情報を記憶させた時の状態の表示に復帰させる。なお、コンテンツ情報の記憶は、利用者による指示や、会議の終了時にされてもよい。また、コンテンツデータに対して行われた操作(例えば、描画操作)を含めて記憶してもよい。
[1.2.2 クライアント装置]
つづいて、クライアント装置20の機能構成について、図3を参照して説明する。クライアント装置20は、制御部200と、表示部210と、操作検出部220と、画像処理部230と、通信部240と、記憶部250とを備えて構成されている。
制御部200は、クライアント装置20の全体を制御するための機能部である。制御部200は、各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU等により構成されている。
操作検出部220は、利用者からの操作を検出するための機能部である。例えば、表示部210と一体に構成されるタッチパネルや、ハードウェアボタン等により構成されている。タッチパネルによる操作の検出方式としては、静電容量方式や、抵抗膜方式等の感圧式や、赤外線方式といった何れの方法であってもよい。
画像処理部230は、表示部210において表示される画像の処理を実行する機能部である。一般的な画像処理として、例えば画像データを鮮鋭化処理したり、色調整処理したりして出力することができる。
通信部240は、クライアント装置20が外部機器と通信を行うための機能部である。例えば、有線/無線LANで利用されるNICや、3G/LTE回線に接続可能な通信モジュールにより実現されている。
記憶部250は、クライアント装置20の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部250は、例えば、半導体メモリであるSSDや、HDD等により構成されている。
記憶部250には、特に、サーバ装置10から受信したコンテンツデータを記憶するコンテンツ情報252が記憶されている。本実施形態においては、コンテンツ情報252には、サーバ装置10に記憶されているコンテンツ情報146のうち、クライアント装置20からサーバ装置10へ要求したもののみを受信して記憶する。
[1.2.3 識別装置]
つづいて、識別装置30の機能構成について、図4を参照して説明する。識別装置30は、制御部300と、操作検出部310と、通信部320と、記憶部340とを備えて構成されている。
制御部300は、識別装置30の全体を制御するための機能部である。制御部300は、各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPUやマイクロコントローラ等により構成されている。
操作検出部310は、利用者による操作を検出する機能部である。例えば、識別装置30にボタンを設け、当該ボタンの状態(ボタンを押下しているか)を検出する。
通信部320は、識別装置30が外部機器と通信を行うための機能部である。例えば、無線LANにより通信可能な機能部であり、通信方式としては、Ethernet(登録商標)やIEEE802.11a/b/g/nである。
記憶部340は、識別装置30の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部340は、例えばフラッシュメモリ等により構成されている。
記憶部340には、特に、識別装置30を識別するためのデバイスID342が記憶されている。デバイスIDは、例えば、英数字や記号によって構成される固定桁の文字列であり、異なる識別装置30には、異なるデバイスIDが記憶されるものとする。なお、本実施形態では、デバイスID342は、12桁の数字で構成されているものとして説明する。
なお、識別装置30の表面に、デバイスID342に記憶されている文字列を表面に表示してもよい。このようにすることで、利用者が識別情報であるデバイスIDを視認でき、識別情報を記憶する必要がなくなる。
[1.2.4 音声入出力装置]
音声入出力装置40は、音声入出力装置40を制御する制御部と、マイク等の音声入力部と、スピーカ等の音声出力部と、外部機器と通信を行うための通信部とを備えて構成される。また、音声入出力装置40は、音声入力部から入力された音声を、音声データに変換して外部機器へ送信し、また、外部機器から受信した音声データを音声出力装置によって出力する制御を行う。
なお、音声入出力装置40は、上述した音声集音部と、音声出力部と、通信部とを備えていて、クライアント装置20と対応付けられればどのような形態であっても構わない。例えば、スマートフォンや、タブレットといった小型コンピュータであってもよいし、クライアント装置20に内蔵されたマイク及びスピーカ等の音声出力部を用いてもよい。
また、音声入出力装置40とクライアント装置20とが有線接続されていてもよい。
[1.3 処理の流れ]
つづいて、本実施形態における処理の流れについて、図8及び図9を参照して説明する。はじめに、利用者の操作によって、識別装置30のボタンが押されたことを検出した場合は、サーバ装置10へ識別装置30のデバイスIDを送信する(S1002;Yes→S1004)。また、サーバ装置10はデバイスIDの受信を行った場合は(S1006)、音声データの受信をするために、所定の時間待機状態にする。
つづいて、利用者は音声入出力装置40に対して、音声によって会議開始の指示を行う。音声入出力装置40は、集音している最中に利用者によって発せられた音声を、音声データとしてサーバ装置10へ送信する(S1008→S1010)。
サーバ装置10は、音声データを受信し、送信元である音声入出力装置40を特定する(S1012)。本実施形態では、音声データと併せて音声入出力装置のアドレスを含めて送信し、当該送信されたアドレスから送信元となった音声入出力装置40を特定することとして説明する。
つづいて、音声認識部110により音声入出力装置40から受信した音声データの音声認識を行う(S1014)。音声認識を行った結果、受信した音声データが会議開始指示であれば、音声識別情報を要求するための音声データを音声データ生成部120で生成する(S1016;Yes→S1018)。
音声識別情報とは、利用者から入力される音声データを音声認識することで得られる情報であり、識別装置30が利用者によって操作されたことを検証するために用いる情報である。本実施形態においては、S1006で識別情報であるデバイスIDを受信しているため、当該デバイスIDに関する音声識別情報を求める音声を生成する。
音声識別情報としては、識別情報の全部であってもよいし、識別情報の一部であってもよい。識別情報の一部を音声識別情報とする場合は、識別情報の何文字目から何文字目までを音声識別情報とするかといった指定を、音声識別情報を要求するための音声データを生成する際に行う。音声識別情報として用いる部分の指定は、予めサーバ装置10に設定されていてもよいし、音声識別情報を要求する際に毎回決定してもよい。
また、音声識別情報を要求した後に、利用者によって音声入出力装置40に入力された音声に基づいて音声識別情報を抽出し、当該抽出された音声識別情報と識別情報とが一致するか否かを判定する。音声識別情報と識別情報とが一致するか否かを判定することにより、識別装置が利用者によって操作されたことを検証することができる。
なお、一致するとは、音声識別情報の種類によって、下記に示すとおりとする。
(1)音声識別情報として識別情報の全てを用いる場合は、音声識別情報と、識別情報とが、互いに同じである場合をいう(完全一致)。
(2)音声識別情報として識別情報の一部を用いる場合は、音声識別情報と、識別情報において音声識別情報として用いる部分として指定した位置の情報とが、同じである場合をいう(部分一致)。
本実施形態では、識別情報であるデバイスIDが12桁の数字で構成されており、デバイスIDの下4桁の数字を音声識別情報として指定するものとして説明する。すなわち、S1006で受信したデバイスID(識別情報)の下4桁の数字と、音声識別情報とが一致(部分一致)すれば、識別装置30が利用者によって操作されたことが検証できる。したがって、S1018では、「デバイスIDの下4桁を入力してください」といった音声データを生成する。
つづいて、S1018で生成した音声データをS1012で特定した音声入出力装置40へ送信する(S1020)。なお、S1016において会議開始指示でない音声データを受信したことを検出した場合は、音声認識された結果に基づいた処理を行う(S1016;No)。
つづいて、音声入出力装置40は、サーバ装置10から音声データを受信し、受信した音声データを再生する(S1022→S1024)。このとき利用者は、再生された音声データに従って、識別装置30の表面に表示されているデバイスIDのうち、下4桁を発声する。そして、音声入出力装置40は、利用者による音声識別情報の音声を音声データとしてサーバ装置10へ送信する(S1026→S1028)。
サーバ装置10は、音声データを受信したら、音声認識を行い、音声データから音声識別情報である、デバイスIDの下4桁に相当する情報を抽出する(S1030→S1032→S1034)。すなわち、本実施形態では、12桁の数字で構成されているデバイスIDのうち、下4桁の数字を音声識別情報として用いるため、音声データから連続した4桁の数字を発している部分を抽出し、当該部分をテキストデータに変換する。
つづいて、識別装置30からデバイスIDを受信しているかを判定する(S1052)。デバイスIDを受信している場合は、S1006で受信したデバイスID(識別情報)の下4桁と、S1034で抽出された4桁の数字とが一致するか否かを判定する(S1052;Yes→S1056)。
識別装置30からデバイスIDを受信していない場合は、タイムアウトになったかを判定する(S1052;No→S1054)。所定の時間を経過した場合は、タイムアウトをしたとして、処理を終了する(S1054;Yes)。なお、タイムアウトとして処理をするまでに待機する時間(例えば、1分)は、サーバ装置10に予め設定されていてもよいし、利用者によって設定されてもよい。
なお、S1052において識別装置30からデバイスIDを受信していない場合とは、利用者が識別装置30の操作をするよりも前に、音声入出力装置40でログイン指示がされ、音声識別情報を受信した場合である。この場合は、音声識別情報を受信した時点で待機し、利用者の操作によって、識別装置30からデバイスIDを受信した場合には、S1056の処理を行う(S1052;Yes→S1056)。
デバイスIDと音声識別情報とが一致する場合は、デバイス情報142から、デバイスIDとに対応する利用者IDを特定する(S1056;Yes→S1058)。一致しない場合は、処理を終了する(S1056;No)。
つづいて、アドレス対応情報144から、音声入出力装置40のアドレスに対応しているクライアント装置のアドレスを特定する(S1060)。そして、特定されたアドレスのクライアント装置において、S1058で特定した利用者IDによるログインを許可する(S1062)。
つづいて、S1060で特定したアドレスのクライアント装置20に、ログインが許可された利用者IDを送信する(S1064)。クライアント装置20が、サーバ装置10から利用者IDを受信することにより(S1066)、クライアント装置20は当該受信した利用者IDのログインが許可されたことを検出することが可能となる。
つづいて、クライアント装置20は表示部210に表示するコンテンツを、サーバ装置10から受信するために、コンテンツ要求を送信する(S1068)。このとき、ログインを許可した利用者IDを送信する。
サーバ装置10はコンテンツ要求を受信した場合、コンテンツ情報146からログインが許可された利用者IDに関するコンテンツをクライアント装置20へ送信する(S1070→S1072)。
クライアント装置20は、コンテンツ情報を受信したら、会議アプリを起動する(S1074→S1076)。また、受信したコンテンツ情報に含まれるレイアウトデータに基づいて、コンテンツ情報に含まれるコンテンツデータを表示する(S1078)。
なお、本実施形態ではサーバ装置が利用者のログインを許可することとして説明したが、クライアント装置が利用者のログインを許可するものとしてもよい。すなわち、サーバ装置は、識別情報と音声識別情報とが一致した利用者IDをクライアント装置に送信し、クライアント装置は受信した利用者IDのログインを許可する動作をしてもよい。
このとき、クライアント装置がログインを許可した場合は、クライアント装置からサーバ装置へ、ログインを許可した情報(ログイン許可情報)を送信する。サーバ装置は、ログイン許可情報を受信した後に、ログインが許可された利用者のコンテンツをクライアント装置に送信する。このようにすることで、ログインの許可がクライアント装置でされた場合であっても、サーバ装置は、当該ログインの許可がされたクライアント装置に対して、利用者に関するコンテンツを送信することが可能となる。
また、ログインが許可された利用者に関連するコンテンツ情報が複数ある場合は、コンテンツ情報に基づく表示を行う際に、どのコンテンツ情報に基づく表示をさせるかを選択させてもよい。複数のコンテンツ情報の中から表示対象とするコンテンツ情報を選択させる表示として、会議名や最終更新日時順でコンテンツ情報を並べて表示してもよく、また、レイアウトデータとコンテンツデータとに基づいて、表示されるコンテンツデータのサムネイルを生成して表示してもよい。
上述した実施形態によれば、利用者は、識別装置30に対する操作と、音声入出力装置40に対する音声入力によって、コンテンツをクライアント装置20に表示することができる。また、異なる2つの装置に対する操作によってログインの可否を判定するため、仮に識別装置30を意図せず操作してしまったとしても、それだけではログインが行わないため、利用者がログインを所望する場合にのみログインを行うことができる。
また、音声入出力装置40とクライアント装置20とを対応させているため、音声入出力装置40とクライアント装置20とによる構成が同一NW内に複数ある場合であっても、音声入力を行った音声入出力装置40に紐付けられているクライアント装置20にのみログインができる。
なお、本実施形態では、サーバ装置20は、利用者が識別装置30を所有することと、音声データの送信元である音声入出力装置40のアドレスとを検出することが可能ではあるが、利用者の本人確認(認証)は行っていない。しかし、社内等限られた場所で会議支援システム1を利用する場合であれば、利用者は限られている。したがって、誰のアカウントで利用するか及び利用者の位置が特定できれば十分である。
すなわち、音声識別情報として、識別装置30の表面に表示されているデバイスIDの全部又は一部を用いるため、利用者はパスワードを記憶しなくてもよく、パスワードを設定する必要もない。したがって、クライアント装置20へのログインが簡易な操作で可能であり、利便性の高い会議支援システムを提供することが可能となる。
[2.第2実施形態]
つづいて、第2実施形態について説明する。第2実施形態は、ゲスト利用者が一時的に会議支援システムを使用する実施例である。なお、本実施形態における全体構成及び機能構成及び処理フローは、第1実施形態と原則同じであるため、相違する点を中心に説明する。
本実施形態の機能構成において、図5で示した第1実施形態におけるデバイス情報142を、図10のデータ構成に置き換える。ここで、最終ログイン日時(例えば、「2017/07/26 13:02」)とは、S1066において最後にログインを許可した時間を記憶する。なお、一度もログインしていない場合は、ログインを行っていないことを示す情報を記憶するものとし、例えば、「N/A」という特殊な値を記憶させてもよい。
また、ログイン期限(例えば、「最終ログイン日時+5時間」)とは、利用者が、当該利用者に紐付いている識別装置30を用いて、サーバ装置10にログインできる期限を定めたものである。決められた日時を記憶してもよいし、最終ログイン日時からの相対的な時間を定めてもよい。
また、本実施形態の処理の流れは、第1実施形態のS1058以降に、図11に示したシーケンスを追加したものである。ここで、デバイスIDから特定された利用者IDがゲスト利用者のものでなければ、第1実施形態のS1060以降の処理を実行する(S2002;No→S1060)。
利用者IDがゲスト利用者であるか否かの判定は、例えばゲスト利用者の利用者IDに所定の文字を含んでいるかによって判定してもよいし、デバイス情報142にゲスト利用者であるか否かのフラグを記憶させて、そのフラグの状態によって判定してもよい。
ゲスト利用者であった場合は、つづいて、デバイス情報142のログイン期限を取得する(S2002;Yes→S2004)。現在の時刻が、ログイン期限内でなければ、その利用者は会議支援システム1にログインできないものとして、処理を終了する(S2006;No)。
ログイン期限内であれば、現在の時刻を最終ログイン日時として記憶する(S2006;Yes→S2008)。その後は、第1実施形態のS1060以降の処理を実行する。
なお、ゲスト利用者は、一時的に会議支援システムを利用するとして、コンテンツ情報の記憶はされない。したがって、ゲスト利用者によってログインの操作がされた場合は、クライアント装置はコンテンツの要求及び表示は行わず、会議アプリの起動のみを行う。
上述した実施形態によれば、一時的に会議支援システムを利用するゲスト利用者を予め設定することが可能となり、ゲスト利用者による一時的なクライアント装置20の使用についても、使用する度にデバイス情報を事前登録するといった手間を省くことができる。また、ゲスト利用者は、ゲスト利用者は識別装置30の貸与を受けることにより、設定された期限に至るまで、クライアント装置20を使用することが可能となる。したがって、運用面においての利便性の向上が期待できる。
また、識別装置30が返却されなかった場合であっても、当該識別装置30に設定されたデバイスIDに設定されたログイン期限を過ぎていればログインが不可能となるため、不正利用を防止することが可能である。
さらに、識別装置30の返却後に、管理者が当該識別装置30のログイン期限を再度設定することで、別のゲスト利用者による会議支援システム1の利用が、同じ識別装置30を用いて可能となる。したがって、識別装置30の再利用が可能となる。
[3.第3実施形態]
つづいて、第3実施形態について説明する。第3実施形態は、利用できる会議クライアントを予め規定する実施例である。なお、本実施形態における全体構成及び機能構成及び処理フローは、第1実施形態と原則同じであるため、相違する点を中心に説明する。
本実施形態の機能構成において、図5で示した第1実施形態におけるデバイス情報142を、図12のデータ構成に置き換える。ここで、所属名(例えば、「開発部」)とは、当該利用者が所属する部署やグループ等を示す名前である。
また、所属名ごとに利用可能なクライアント装置のアドレス群を記憶させたデータを記憶部150に記憶する。このデータの例を図13に示す。利用可能なクライアント装置のアドレス群には、1又は複数のクライアント装置のアドレスを記憶させてもよく、すべてのクライアント装置を示す「ALL」といった文字列を記憶させてもよい。
また、本実施形態の処理の流れは、第1実施形態のS1058以降に、図14に示したシーケンスを追加したものである。ここで、デバイスIDから特定された利用者IDを特定したら、つづいて、当該利用者の所属名を特定する(S1058→S3002)。
さらに、特定した所属名から、利用可能なクライアント装置のアドレス群を特定する(S3004)。また、アドレス対応情報144から、音声入出力装置40のアドレスに紐付いているクライアント装置のアドレスを特定し、当該クライアント装置20のアドレスが、利用可能なアドレス群に含まれるか否かを判定する(S1060→S3006)。
クライアント装置20のアドレスが、利用可能なアドレス群に含まれていない場合は、会議開始指示を行った音声入出力装置40と対応付けられたクライアント装置20は使用できない(S3006;No)。したがって、当該クライアント装置が利用できない旨の音声データを生成し、音声入出力装置40へ送信する(S3008→S3010)。また、音声入出力装置40は音声データを受信し、音声データを再生することで、利用者にクライアント装置20が使用できないことを通知する(S3012→S3014)。
クライアント装置20のアドレスが、利用可能なアドレス群に含まれている場合は、第1実施形態のS1062以降の処理を実行する(S3006;Yes→S1062)。
なお、上述した説明においては、デバイス情報142には所属名を記憶させたものとして説明をしたが、所属名以外の属性を記憶させても構わないことは勿論である。例えば、役職名や権限名といった属性を記憶させてもよく、属性ごとに利用可能なクライアント装置のアドレス群を設定してもよい。
本実施形態によれば、利用者の属性に基づいて、利用できるクライアント装置20を限定することが可能となる。したがって、例えば自部門のクライアント装置20を他部門の利用者に使用されてしまうといった問題を防止することが可能となる。
また、クライアント装置20の記憶部に、経営情報といったアクセスを限定すべき情報が記憶されている場合は、当該クライアント装置20は、一定の所属または役職の利用者のみが利用可能とするといった運用も可能となる。すなわち、クライアント装置20の状態に基づいて、当該クライアント装置20を利用できる利用者を限定する事が可能となる。
[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は、音声識別情報として、デバイスIDの全部又は部分を用いる代わりに、事前に設定された質問の答えを用いる実施例である。なお、本実施形態における全体構成及び機能構成及び処理フローは、第1実施形態と原則同じであるため、相違する点を中心に説明する。
本実施形態の機能構成において、図5で示した第1実施形態におけるデバイス情報142を、図15のデータ構成に置き換える。ここで、登録キーワード(例えば、「ウォルター」)とは、利用者が決めたキーワードである。また、質問1(例えば、「東京都」)とは、予め定められた質問に対する答えである。質問は複数用意しても構わないことは勿論である。
登録キーワードは、デバイス情報142にデバイス情報を登録する際に記憶されてもよいし、利用者の操作によって記憶されてもよい。また、任意の時期に更新してもよい。たとえば、会議の終了間際に、次回の会議においてコンテンツを呼び出すための登録キーワードを更新してもよい。
また、記憶部140には質問内容を記憶させる。質問内容を記憶したデータ構造を図16に示す。質問ID(例えば、「質問1」)とは、質問を一意に特定するためのものであり、質問内容(例えば、「出身地の都道府県は?」)とは、質問の具体的な内容である。本実施形態では、質問IDによって、質問内容と、デバイス情報142に記憶されている質問の答えとを対応付けている。
また、本実施形態の処理の流れは、第1実施形態のS1016からS1056までを、図17に示したシーケンスで置き換えたものである。まず、会議開始指示がされたと判定したら、S1006で受信したデバイスIDに関連した利用者を識別し、当該識別された利用者に対して行う質問内容を決定する(S1016→S4002)。
例えば、質問に対する答えが1又は複数記憶されている場合は、登録されている答えのうちの1つを問い合わせるための質問を決定すればよい。また、質問の答えが登録されていない場合は、キーワードを問い合わせることを決定してもよい。
つづいて、質問内容に対する答えを利用者に発言させるために、質問用の音声データを生成する(S1020)。質問の答えを問い合わせる場合は、質問内容に基づいて音声データを生成すればよく、キーワードを問い合わせる場合は、例えば「登録したキーワードは何ですか?」といった内容の音声データを生成すればよい。
つづいて、生成された音声データを音声入出力装置40へ送信し、音声入出力装置40から音声データを受信し、音声認識を行う(S1020〜S1032)。音声認識の結果、質問の答えが正しい場合、すなわち、音声認識された結果と、質問の答え又は登録キーワードとが一致する場合は、S1058以降の処理を実行する。
質問の答が正しくない場合はS4002へ戻る(S4006;No→S4002)。この場合は、利用者に再度質問の答えを問い合わせることとなるが、同じ質問をしてもよいし、既にした質問とは異なる質問をしてもよい。また、質問を行う回数を予め定めておき、当該回数の質問を行った場合には、ログインを行わないものとして、処理を終了させてもよい。
上述した実施形態によれば、利用者毎に定められた質問に正しく答えることによりログインを行う。すなわち、質問の答えを知らない利用者によってはログインすることができないため、識別装置30に表示されているデバイスIDを発声する場合と比べて、セキュリティの向上が期待できる。
[5.第5実施形態]
つづいて、第5実施形態について説明する。第5実施形態は、指紋認証を用いてログインを行う実施例である。本実施形態の全体構成、機能構成、処理の流れについて図を参照して説明する。なお、第1実施形態と同様の構成及び処理を行う箇所は、第1実施形態と同一の符号を付し、説明を省略する。
[5.1 全体構成]
本実施形態の全体構成について、図18を用いて説明する。図18は本発明を適用したサーバ装置10を含む会議支援システム2の外観である。本実施形態における会議支援システムは、サーバ装置10と、クライアント装置20と、AP(アクセスポイント)とが、NW(ネットワーク)を介して接続されている。また、識別装置である識別装置32と、音声入出力装置である音声入出力装置40とがAPに接続されている。図18においては、図示した装置が同一のネットワークに接続されているものとして示しているが、インターネット等の外部ネットワークを介して接続されていてもよい。例えば、サーバ装置10が、クラウド環境に配置されていてもよい。
会議支援システム1と会議支援システム2とでは、サーバ装置10と、クライアント装置20と、音声入出力装置40とについては同様であるが、識別装置32の構成が異なっている。本実施形態における識別装置32では、利用者の操作の検出に加えて、利用者の生体認証を行うことが可能な装置である。
[5.2 機能構成]
[5.2.1 サーバ装置]
本実施形態におけるサーバ装置10の機能構成について説明する。サーバ装置10の機能構成は第1実施形態の機能構成とほぼ同じであるが、デバイス情報142の構成が異なっている。
本実施形態におけるデバイス情報142のデータ構成について、図20を参照して説明する。デバイス情報142には、識別装置を所持する利用者を識別するための利用者ID(例えば、「MU119」)と、利用者名(例えば、「ムナカタ」)とが記憶されている。
[5.2.2 識別装置]
識別装置32の機能構成を図19に示す。識別装置32は、制御部300と、操作検出部310と、通信部320と、生体情報取得部330と、記憶部350とを備えて構成されている。ここで、制御部300と、操作検出部310と、通信部320とは、第1実施形態における識別装置30と同様である。
生体情報取得部330は、識別装置32を使用する利用者の生体情報を取得するための機能部である。生体情報としては、指紋や、血管や、虹彩などを用いることができる。本実施形態においては、指紋によって識別装置32が利用者を認証するために、生体情報取得部330が取得する生体情報として指紋を用いることとし、生体情報取得部330として、読み取るための指紋センサを用いることとして説明する。
記憶部350は、識別装置32の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部350は、例えばフラッシュメモリ等により構成されている。
記憶部350には、特に、識別装置32を使用する利用者を識別するための利用者ID352と、当該利用者の生体認証を行うために必要な生体認証情報354と、当該生体認証情報354による認証が可能である期限を示した利用期限情報356と、識別装置32を識別するためのデバイスID358とが記憶されている。
生体認証情報354は、生体情報取得部330によって読み取られた生体情報と比較するための情報である。本実施形態では、生体情報取得部330として指紋センサを用いて利用者の指紋のパターンを読み取るため、生体認証情報354としては、識別装置32の利用者の指紋のパターンが記憶される。
[5.3 処理の流れ]
つづいて、本実施形態における処理の流れについて説明する。本実施形態の処理の流れは、第1実施形態の処理の流れを説明した図8及び図9を、図21及び図22に置き換えたものである。なお、図8及び図9における符号と同じ符号で示された処理は、第1実施形態における処理と同様であり、その説明を省略する。
まず、利用者によって会議開始指示がされた場合は、デバイス情報142に記憶されている利用者名の何れかを要求するための音声データを生成する(S1016;Yes→S5002)。
つづいて、音声入出力装置40から音声データを受信したら、音声認識を行い、デバイス情報142に記憶されている利用者名の何れかと一致する発言がされたかを判定する(S1030→S1032→S5004)。音声データを音声認識した結果、デバイス情報142に記憶されている利用者名の何れかと一致する場合は、識別装置32から送信される利用者IDを受信するために待機する(S5004;Yes)。一致しない場合は、S5002の処理を行う(S5004;No→S5002)。
識別装置32は、はじめに、利用期限情報356を読み出し、現在時刻と比較を行い、識別装置32が利用可能な期限内であるかを判定する(S5006)。利用期限を過ぎていた場合は処理を終了する(S5006;No)。
利用期限内である場合は、利用者が指紋センサをタッチしたことを検出するまで待機する(S5006→S5008)。指紋センサに対して利用者がタッチを行った場合は、つづいて、利用者の指紋のパターンを読み取り、指紋による利用者の認証(指紋認証)を行う(S5010)。ここで、指紋センサが読み取った指紋のパターンと、識別装置32の生体認証情報354として記憶されている指紋のパターンとが十分な精度で一致するとはいえない場合は、指紋認証が失敗したと判定し、処理を終了する(S5010;No)。
指紋認証が成功した場合は、利用者によって識別装置32のボタンが押されたことを検出するまで待機する(S5010;Yes→S5012)。この状態で、利用者によってボタンが押されたことを検出した場合は、識別装置32は、利用者ID352と、認証が成功したことを示す情報とを、サーバ装置10へ送信する(S5014)。
サーバ装置10は、S5004の判定の後、利用者IDを受信するために待機している(S5016)。ここで、利用者IDが受信されずに、所定の時間を経過した場合は、タイムアウトをしたとして、処理を終了する(S5052;No→S5054;Yes)。
利用者IDを受信したら、当該識別装置32から受信した利用者IDと、S1030で受信した音声データを音声認識して得られた利用者名から特定される利用者IDとが一致するかを判定する(S5052;Yes→S5056)。一致した場合はS1060の処理を行い(S5056;Yes→S1060)、一致しない場合は処理を終了する(S5056;No)。
上述した実施形式によれば、識別装置32で指紋認証を行うため、識別装置32の所持者でない利用者によるログインを防ぐことが可能であり、より技術的な安全性が確保された状態でのログインが可能である。
なお、上述した処理の流れでは、識別装置32において指紋認証が成功した場合にのみ利用者IDをサーバ装置10へ送信したが、認証の結果を含めて送信してもよい。すなわち、認証が成功した場合は認証が成功したことを示す情報と利用者IDを送信し、認証が失敗した場合は認証が失敗したことを示す情報をサーバ装置10へ送信する。この場合、サーバ装置10において、同一の識別装置32において何度も指紋認証に失敗したことを検出した場合は、当該識別装置32を利用不可としてもよい。このようにすることで、例えば識別装置32を紛失した場合における対応が可能となる。
[6.第6実施形態]
つづいて、第6実施形態について説明する。第6実施形態は、識別装置32に複数の利用者の生体認証情報を記憶する実施形態である。なお、本実施形態における全体構成、機能構成及び処理の流れは、第5実施形態と原則同じであるため、相違する点を中心に説明する。
識別装置32の記憶部350には、当該識別装置32を利用する複数の利用者について、利用者毎に、利用者IDと、生体認証情報と、利用期限情報とを対応させて記憶させる。具体的なデータ構造の例を図23に示す。図23に示したデータ構造においては、生体認証情報として、利用者毎の指紋データを記憶させている。なお、利用期限は利用者毎に記憶されてもよいし、1つの識別装置32に対して1つの利用期限を記憶させ、識別装置32自体の有効期限を定めて運用してもよい。
また、本実施形態の処理の流れは、第5実施形態のS5006からS5014までを、図24に示したシーケンスで置き換えたものである。指紋センサに対するタッチを検出したら、指紋センサから取得した指紋が、記憶部350に記憶している指紋データの何れかに十分な精度で一致するか否かを判定する(S5006→S6002)。
何れにも一致しない場合は、処理を終了する(S6002;No)。何れかの指紋データと十分な精度で一致した場合は、当該一致した指紋データに関連する利用期限を特定し、現在の日時が利用期限内に含まれるかを判定する(S6002;Yes→S6004)。利用期限を過ぎている場合は処理を終了する(S6004;No)。
利用期限内の場合は、識別装置32のボタンが押されたことを検出したら、一致した指紋データに関連する利用者IDを特定し、サーバ装置10へ送信する(S6004;Yes→S5010→S6006)。このように処理することで、指紋認証が成功した利用者に限って、クライアント装置20へのログインが許可される。
上述した実施形態によれば、会議支援システム1を利用する人数分の識別装置32を用意する必要がなくなる。したがって、所属部門毎や、クライアント装置20毎にボタンを用意すればよく、コストの削減を図ることができる。また、管理する識別装置32が少なくなるため、識別装置32の管理の簡略化も実現できる。
[7.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
また、上述した実施形態は、それぞれの実施形態を組み合わせて実行することができることは勿論である。例えば、第3実施形態と第5実施形態とを組み合わせることで、生体認証が可能な識別装置32を用いた上で、さらに、利用可能なクライアント装置20を管理することができる。
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバ装置コンピュータに転送したりすることができる。この場合、サーバ装置コンピュータの記憶装置も本発明に含まれるのは勿論である。
10 サーバ装置
100 制御部
110 音声認識部
120 音声データ生成部
130 通信部
140 記憶部
142 デバイス情報
144 アドレス対応情報
146 コンテンツ情報
20 クライアント装置
200 制御部
210 表示部
220 操作検出部
230 画像処理部
240 通信部
250 記憶部
252 コンテンツ情報
30 識別装置
300 制御部
310 操作検出部
320 通信部
340 記憶部
342 デバイスID
40 音声入出力装置

Claims (12)

  1. 利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置であって、
    利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
    識別装置から、前記識別情報を受信する識別情報受信手段と、
    音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
    前記識別情報と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可するログイン手段と、
    前記ログイン手段によりログインを許可された利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御手段と、
    を備えたことを特徴とするサーバ装置。
  2. 前記ログイン手段は、前記識別情報のうち、指定された部分と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可することを特徴とする請求項1に記載のサーバ装置。
  3. 前記音声入出力装置と、前記クライアント装置とを対応づけて管理する管理手段を更に有し、
    前記コンテンツ表示制御手段は、前記音声データを受信した音声入出力装置に対応する前記クライアント装置に、前記コンテンツを表示させることを特徴とする請求項1又は2に記載のサーバ装置。
  4. 前記コンテンツ表示制御手段は、前記クライアント装置に表示させる場合には、前記利用者がログアウトしたときのコンテンツの表示レイアウトに復元して表示させることを特徴とする請求項1から3のいずれか一項に記載のサーバ装置。
  5. 前記ログイン手段は、前記識別情報と、前記音声識別情報とが一致し、かつ、前記利用者が前記音声入出力装置に対応する前記クライアント装置にログイン可能と判定される場合には、前記識別情報に対応する利用者のログインを許可することを特徴とする請求項1から4の何れか一項に記載のサーバ装置。
  6. 前記識別情報記憶手段は、前記識別情報を、前記利用者に対する質問の回答として記憶していることを特徴とする請求項1から5の何れか一項に記載のサーバ装置。
  7. 利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置であって、
    利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
    識別装置から、前記識別情報を受信する識別情報受信手段と、
    音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
    前記識別情報と、前記音声識別情報とが一致した場合には、前記クライアント装置に、前記識別情報に対応する利用者の利用者識別情報を送信する利用者識別情報送信手段と、
    前記利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御手段と、
    を備えたことを特徴とするサーバ装置。
  8. 前記サーバ装置は、前記クライアント装置からログイン許可情報を受信するログイン許可情報受信手段をさらに備え、
    前記コンテンツ表示制御手段は、前記受信したログイン許可情報に基づき、コンテンツを前記クライアント装置に表示させることを特徴とする請求項7に記載のサーバ装置。
  9. 利用者に対応したコンテンツを処理可能なクライアント装置と、識別情報が記憶された識別装置と、前記クライアント装置との間で通信を行うサーバ装置と、を備えたサーバクライアントシステムであって、
    前記識別装置は、利用者の選択操作により、前記サーバ装置に識別情報を送信する識別情報送信手段を備え、
    前記サーバ装置は、
    利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
    前記識別装置から、前記識別情報を受信する識別情報受信手段と、
    音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
    前記識別情報と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可するログイン手段と、
    前記ログイン手段によりログインを許可された利用者に対応づけられたコンテンツを前記クライアント装置に送信するコンテンツ送信手段と、
    を備え、
    前記クライアント装置は、
    前記サーバ装置からコンテンツを受信し、表示する制御を行うコンテンツ表示制御手段を備える、
    ことを特徴とするサーバクライアントシステム。
  10. 利用者に対応したコンテンツを処理可能なクライアント装置と、識別情報が記憶された識別装置と、前記クライアント装置との間で通信を行うサーバ装置と、を備えたサーバクライアントシステムであって、
    前記識別装置は、利用者の選択操作により、前記サーバ装置に識別情報を送信する識別情報送信手段を備え、
    前記サーバ装置は、
    利用者と、識別情報とを対応づけて記憶する識別情報記憶手段と、
    前記識別装置から、前記識別情報を受信する識別情報受信手段と、
    音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識手段と、
    前記識別情報と、前記音声識別情報とが一致した場合には、前記クライアント装置に、前記識別情報に対応する利用者の利用者識別情報を送信する利用者識別情報送信手段と、
    前記クライアント装置から送信されるログイン許可情報を受信するログイン許可情報受信手段と、
    前記受信したログイン許可情報に基づき、ログインが許可された利用者に対応づけられたコンテンツを前記クライアント装置に送信するコンテンツ送信手段と、
    を備え、
    前記クライアント装置は、
    前記サーバ装置から前記利用者識別情報を受信するログイン情報受信手段と、
    前記利用者識別情報に基づき、利用者識別情報に対応する利用者のログインを許可するログイン許可手段と、
    前記利用者のログインを許可した場合は、前記サーバ装置にログイン許可情報を送信するログイン許可情報送信手段と、
    前記サーバ装置からコンテンツを受信し、表示する制御を行うコンテンツ表示制御手段と、
    を備えることを特徴とするサーバクライアントシステム。
  11. 利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置に、
    利用者と、識別情報とを対応づけて記憶する識別情報記憶機能と、
    識別装置から、前記識別情報を受信する識別情報受信機能と、
    音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識機能と、
    前記識別情報と、前記音声識別情報とが一致した場合には、前記識別情報に対応する利用者のログインを許可するログイン機能と、
    前記ログイン機能によりログインを許可された利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御機能と、
    を実現させるためのプログラム。
  12. 利用者に対応したコンテンツを処理可能なクライアント装置との間で通信を行うサーバ装置に、
    利用者と、識別情報とを対応づけて記憶する識別情報記憶機能と、
    識別装置から、前記識別情報を受信する識別情報受信機能と、
    音声入出力装置から音声データを受信し、当該音声データから音声識別情報を認識する識別情報認識機能と、
    前記識別情報と、前記音声識別情報とが一致した場合には、前記クライアント装置に、前記識別情報に対応する利用者の利用者識別情報を送信する利用者識別情報送信機能と、
    前記利用者に対応づけられたコンテンツを前記クライアント装置に表示させるコンテンツ表示制御機能と、
    を実現させるためのプログラム。
JP2017191549A 2017-09-29 2017-09-29 サーバ装置、サーバクライアントシステム及びプログラム Active JP6843723B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017191549A JP6843723B2 (ja) 2017-09-29 2017-09-29 サーバ装置、サーバクライアントシステム及びプログラム
CN201811125831.6A CN109600353B (zh) 2017-09-29 2018-09-26 服务器装置、服务器客户端系统及非暂时性记录介质
US16/147,726 US11037575B2 (en) 2017-09-29 2018-09-29 Server device and server client system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017191549A JP6843723B2 (ja) 2017-09-29 2017-09-29 サーバ装置、サーバクライアントシステム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019067112A JP2019067112A (ja) 2019-04-25
JP6843723B2 true JP6843723B2 (ja) 2021-03-17

Family

ID=65897449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017191549A Active JP6843723B2 (ja) 2017-09-29 2017-09-29 サーバ装置、サーバクライアントシステム及びプログラム

Country Status (3)

Country Link
US (1) US11037575B2 (ja)
JP (1) JP6843723B2 (ja)
CN (1) CN109600353B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004454B1 (en) * 2018-11-06 2021-05-11 Amazon Technologies, Inc. Voice profile updating
US11200884B1 (en) * 2018-11-06 2021-12-14 Amazon Technologies, Inc. Voice profile updating

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05287949A (ja) * 1992-04-07 1993-11-02 N T T Data Tsushin Kk 電子錠前装置
JP4109080B2 (ja) * 2002-10-18 2008-06-25 株式会社東芝 公衆表示器を利用した情報提供サービス装置及び方法
JP2007052496A (ja) 2005-08-15 2007-03-01 Advanced Media Inc ユーザ認証システム及びユーザ認証方法
US20070055517A1 (en) * 2005-08-30 2007-03-08 Brian Spector Multi-factor biometric authentication
US9313307B2 (en) * 2005-09-01 2016-04-12 Xtone Networks, Inc. System and method for verifying the identity of a user by voiceprint analysis
JP2008257441A (ja) 2007-04-04 2008-10-23 Sharp Corp 会議支援システム、装置、方法、及びプログラム
KR20110056288A (ko) * 2008-08-04 2011-05-26 오팡가 네트웍스, 인크. 근거리 네트워크에서의 장치 의존 전송
JP5146479B2 (ja) * 2010-03-23 2013-02-20 コニカミノルタビジネステクノロジーズ株式会社 文書管理装置、文書管理方法、文書管理プログラム
JP5766051B2 (ja) * 2011-07-07 2015-08-19 キヤノン株式会社 外部装置と通信可能な画像処理装置、画像処理装置の制御方法、プログラム
US20150025888A1 (en) * 2013-07-22 2015-01-22 Nuance Communications, Inc. Speaker recognition and voice tagging for improved service
JP6482911B2 (ja) * 2014-07-01 2019-03-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法および電気機器
CN104834853B (zh) * 2015-04-30 2017-11-21 北京立思辰计算机技术有限公司 一种身份识别方法、装置及信息安全型复印机
JP6561710B2 (ja) * 2015-09-15 2019-08-21 株式会社リコー 情報処理装置、情報処理システム、認証方法、及びプログラム
CN105243713A (zh) * 2015-10-22 2016-01-13 苏树杰 一种安全门控制系统

Also Published As

Publication number Publication date
US11037575B2 (en) 2021-06-15
CN109600353A (zh) 2019-04-09
CN109600353B (zh) 2022-05-10
JP2019067112A (ja) 2019-04-25
US20190103117A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
EP3272101B1 (en) Audiovisual associative authentication method, related system and device
US20190213315A1 (en) Methods And Systems For A Voice Id Verification Database And Service In Social Networking And Commercial Business Transactions
US10083695B2 (en) Dialog-based voiceprint security for business transactions
US8725514B2 (en) Verifying a user using speaker verification and a multimodal web-based interface
US10402789B2 (en) Attendance tracking via device presence
US10169561B2 (en) Biometric interface system and method
US10665244B1 (en) Leveraging multiple audio channels for authentication
JP6832823B2 (ja) 認証システム及びサーバ装置
US10623403B1 (en) Leveraging multiple audio channels for authentication
US10978078B2 (en) Synthesized voice authentication engine
US11757870B1 (en) Bi-directional voice authentication
US11665153B2 (en) Voice biometric authentication in a virtual assistant
US10049673B2 (en) Synthesized voice authentication engine
JPWO2009008077A1 (ja) 利用者認証判定装置、利用者認証判定システム、利用者認証判定プログラムおよび利用者認証判定方法
JP6843723B2 (ja) サーバ装置、サーバクライアントシステム及びプログラム
CN109660505B (zh) 系统、语音操作设备、控制方法以及存储介质
JP5709271B2 (ja) パーソナル携帯端末を用いたカラオケログインシステム
WO2015059365A9 (en) Audiovisual associative authentication method and related system
JP2009230649A (ja) 他端末または相手システムの正当性を確認する方法、電子手続支援システムのためのサーバ、およびコンピュータプログラム
US12021857B2 (en) Voice biometric authentication in a virtual assistant
JP7362401B2 (ja) 情報処理システム、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210224

R150 Certificate of patent or registration of utility model

Ref document number: 6843723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150