JP6332369B2 - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP6332369B2 JP6332369B2 JP2016175519A JP2016175519A JP6332369B2 JP 6332369 B2 JP6332369 B2 JP 6332369B2 JP 2016175519 A JP2016175519 A JP 2016175519A JP 2016175519 A JP2016175519 A JP 2016175519A JP 6332369 B2 JP6332369 B2 JP 6332369B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- data
- input
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 26
- 238000000034 method Methods 0.000 claims description 193
- 230000008569 process Effects 0.000 claims description 174
- 238000012545 processing Methods 0.000 claims description 78
- 238000006243 chemical reaction Methods 0.000 description 113
- 230000015654 memory Effects 0.000 description 57
- 238000001514 detection method Methods 0.000 description 50
- 238000004891 communication Methods 0.000 description 42
- 238000004458 analytical method Methods 0.000 description 34
- 238000000605 extraction Methods 0.000 description 20
- 230000000873 masking effect Effects 0.000 description 17
- 230000008921 facial expression Effects 0.000 description 13
- 210000004709 eyebrow Anatomy 0.000 description 12
- 239000000284 extract Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012217 deletion Methods 0.000 description 7
- 230000037430 deletion Effects 0.000 description 7
- 210000003205 muscle Anatomy 0.000 description 7
- 230000035900 sweating Effects 0.000 description 7
- 101150043915 cbs2 gene Proteins 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 101100441251 Arabidopsis thaliana CSP2 gene Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program .
情報化社会において、カメラで撮影した画像におけるプライバシーへの配慮は重要である。最近では、プライバシーへの配慮のため、カメラで撮影した画像から顔画像を検出し、検出した顔画像と、予め登録されている特定人物の顔画像とが一致した場合には、その顔画像にマスク処理(抽象化処理)を施さず、不一致の場合にはその顔画像にマスク処理を施すようにした装置が提案されている(特許文献1参照)。 In the information-oriented society, it is important to consider the privacy of images taken with cameras. Recently, for privacy reasons, when a face image is detected from an image captured by a camera and the detected face image matches a face image of a specific person registered in advance, the face image is displayed. There has been proposed an apparatus in which mask processing (abstraction processing) is not performed and mask processing is performed on the face image when there is a mismatch (see Patent Document 1).
しかしながら、上記特許文献1では、セキュリィティレベルに応じたきめ細かな配慮が不足しており、必ずしも使い勝手の良いものとはいえなかった。
However, the above-mentioned
そこで本発明は上記の課題に鑑みてなされたものであり、セキュリティが考慮された、使い勝手の良い情報処理装置及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide an information processing apparatus and a program that are easy to use in consideration of security.
本発明の情報処理装置は、画像を入力する第1入力装置(52)と、位置情報と時刻情報との少なくとも一方の情報を入力する第2入力装置(52)と、前記画像の出力指示があったときに、前記第2入力装置が入力した情報に基づいて前記画像の出力に制限を加えるか否かを判断する判断装置(70)と、を備える。 The information processing apparatus according to the present invention includes a first input device (52) that inputs an image, a second input device (52) that inputs at least one of position information and time information, and an output instruction for the image. A determination device (70) for determining whether or not to limit the output of the image based on information input by the second input device.
この場合において、前記第2入力装置は、前記画像が撮影された位置の情報、又は前記画像を出力する位置の情報を入力するとともに、前記画像が撮影された時刻の情報、又は前記画像を出力する時刻の情報を入力することができる。 In this case, the second input device inputs information on a position where the image is captured or information on a position where the image is output, and outputs information on a time when the image is captured or the image. It is possible to input time information.
また、前記判断装置は、前記情報に基づき、セキュリティ又はプライバシーが確保されているかどうかに基づいて、前記画像の出力制限が必要か否かを判断することとしてもよい。 Further, the determination device may determine whether output restriction of the image is necessary based on whether security or privacy is ensured based on the information.
また、前記判断装置が前記画像の出力に制限を加えると判断したときに、前記画像の少なくとも一部に制限を施す第1処理装置(70)を備えたこととしてもよい。この場合、前記第1処理装置は、前記位置情報により、セキュリティが確保されている場所からセキュリティが確保されていない場所に変化したときに、前記画像の少なくとも一部に制限を施すこととしてもよい。また、前記第1処理装置は、前記位置情報及び前記時刻情報の少なくとも一方の情報に基づいて、前記画像中において出力制限を加える箇所を特定することとしてもよい。また、前記画像中の被写体の情報を入力する第3入力装置(53)を備え、前記第1処理装置は、前記第3入力装置が入力した情報に基づいて、前記画像中において出力制限を加える箇所を特定することとしてもよい。この場合、前記第1処理装置は、前記第3入力装置が入力した前記被写体の情報を、前記画像とともに出力することとしても良い。更に、前記第1処理装置は、前記第3入力装置が入力した前記被写体の情報を、所定のルールに基づいて変換して、前記画像とともに出力することとしてもよい。 The image processing apparatus may further include a first processing device (70) that restricts at least a part of the image when the determination device determines that the output of the image is restricted. In this case, the first processing device may limit at least a part of the image when the location information changes from a place where security is secured to a place where security is not secured. . In addition, the first processing device may identify a location where output restriction is applied in the image based on at least one of the position information and the time information. The image processing apparatus further includes a third input device (53) for inputting information on a subject in the image, and the first processing device applies output restriction in the image based on information input by the third input device. It is good also as specifying a location. In this case, the first processing device may output the subject information input by the third input device together with the image. Furthermore, the first processing device may convert the subject information input by the third input device based on a predetermined rule and output the information together with the image.
本発明の情報処理装置では、前記判断装置は、前記画像の人物の表情の情報に基づいて、前記画像の出力に制限を加えるか否かを判断することとすることができる。 In the information processing apparatus of the present invention, the determination device can determine whether or not to limit the output of the image based on information on the facial expression of the person in the image.
また、本発明の情報処理装置では、音声データ及びテキストデータの少なくとも一方を入力する第4入力装置(52)を備え、前記判断装置は、前記位置情報及び前記時刻情報の少なくとも一方に基づいて、前記音声データ及び前記テキストデータの少なくとも一方の出力に制限を加えるか否かを判断することとすることができる。 The information processing apparatus of the present invention further includes a fourth input device (52) for inputting at least one of voice data and text data, and the determination device is based on at least one of the position information and the time information. It can be determined whether or not to limit the output of at least one of the voice data and the text data.
この場合において、前記判断装置が、前記音声データの出力に制限が必要と判断した場合、前記音声データから変換・生成されたテキストデータを出力する第2処理装置(70)を備えていてもよい。また、前記判断装置が、前記音声データに出力の制限が必要と判断した場合、前記音声データ及び前記テキストデータの少なくとも一方の特定の名詞を他の名詞に変換して出力する第2処理装置を備えていてもよい。 In this case, the determination device may include a second processing device (70) for outputting text data converted / generated from the sound data when it is determined that the output of the sound data is limited. . A second processing device that converts and outputs at least one specific noun of the voice data and the text data to another noun when the judgment device judges that output restriction is required for the voice data; You may have.
本発明の情報処理装置では、前記第1処理装置が処理した画像を表示する表示部(14)を有する第1筐体(11)と、判断部を有する第2筐体(51)と、を有し、前記第1筐体と前記第2筐体とが分離していることとしてもよい。この場合において、前記第1筐体に設けられた、当該第1筐体の位置情報を検出する位置検出部(22)を備え、前記第2入力装置は、前記位置検出部による検出結果を入力することとしてもよい。 In the information processing apparatus of the present invention, the first housing (11) having the display unit (14) for displaying the image processed by the first processing device, and the second housing (51) having the determination unit. And the first housing and the second housing may be separated. In this case, a position detection unit (22) provided in the first housing for detecting position information of the first housing is provided, and the second input device inputs a detection result by the position detection unit. It is good to do.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later is provided. May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.
本発明は、セキュリティが考慮され、使い勝手が向上した情報処理装置及びプログラムを提供することができるという効果を奏する。
INDUSTRIAL APPLICABILITY The present invention has an effect that it is possible to provide an information processing apparatus and a program that are improved in usability in consideration of security.
以下、パーソナルアシスタントシステム100の一実施形態について、図1〜図27に基づいて詳細に説明する。図1には、パーソナルアシスタントシステム100のブロック図が示されている。この図1に示すように、パーソナルアシスタントシステム100は、携帯型端末10と、サーバ50と、を備えている。
Hereinafter, an embodiment of the
携帯型端末10は、ユーザが携帯可能な端末であり、例えば、携帯電話、スマートフォン、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistant)などの端末である。この携帯型端末10の大きさは、例えば胸ポケットに入る程度とされている。携帯型端末10は、図1に示すように、入力部12と、表示部14と、再生部16と、警告部18と、生体情報入力部20と、位置検出部22と、時刻検出部24と、カレンダ部26と、フラッシュメモリ28と、通信部32と、端末側制御部30と、を有する。また、携帯型端末10は、これら各部の少なくとも一部を格納する、携帯可能な第1筐体11を有している。
The
入力部12は、音声入力部42と、画像入力部43と、テキストデータ入力部44とを有する。音声入力部42は、マイクロフォンを含み、ユーザの音声や、ユーザの周辺で発せられる音声を取得し音声符号化部45へ出力する。
The
音声符号化部45は、端末側制御部30の初期設定により定められた符号化方式により音声入力部42から入力された音声を符号化して、通信部32へ出力する。
The voice encoding unit 45 encodes the voice input from the
画像入力部43は、光学系や撮像素子などを含み、動画像を生成し画像符号化部46へ出力する。画像符号化部46は、端末側制御部30の初期設定により定められた符号化方式により画像入力部43から入力された画像を符号化して、通信部32へ出力する。なお、画像入力部43への入力が動画であり、当該動画の入力と同時に音声入力部42への入力があった場合には、それらの入力データを関連付けるものとする(多重化処理と同様の処理を行うものとする)。なお、画像入力部43は動画像データに限らず、静止画像データを画像符号化部46へ出力することとしてもよい。
The
テキストデータ入力部44は、キーボードやタッチパネルなどの入力インタフェースを含み、ユーザの入力操作に応じたテキストデータを取得する。なお、入力部12は、タッチパネルなどからのユーザの操作指示を受け付ける機能も有している。なお、入力部12より入力した各種データは必要に応じてフラッシュメモリ28に記憶しておいてもよい。この場合、後述するサーバ側制御部70の制御によりフラッシュメモリ28に記憶された各種データは削除される。
The text
表示部14は、液晶ディスプレイや有機ELディスプレイなどのディスプレイを含んでいる。表示部14は、端末側制御部30又はサーバ側制御部70の制御の下、ディスプレイに対して画像データや文字データなどのデータを表示したり、ユーザが操作を行うためのメニュー表示をしたりする。
The
再生部16は、スピーカを含み、音声や音を出力する。例えば、端末側制御部30又はサーバ側制御部70は、表示部14に動画を再生させる場合には、再生部16に、音声入力部42が入力した動画の音声を再生させることができる。なお、音声の再生に代えて、又は音声の再生とともに、サーバ50側で音声からテキストデータに変換されたテキストデータをテロップとして表示部14に表示させてもよい。特に、守秘性やプライバシーが保たれない場所では、音声データにかえてテキストデータを再生することが望ましい。
The reproduction unit 16 includes a speaker and outputs voice and sound. For example, the terminal-
警告部18は、携帯型端末10においてエラーが発生したときなどにおいて、ユーザに対して警告を行うものであり、例えば、再生部16を介した警告音の出力や、表示部14を介した警告表示などを行う。
The
生体情報入力部20は、例えば、ユーザの筋肉の状態(緊張度及び弛緩度)、あるいは血圧、心拍数、脈拍、体温などの生体情報の少なくとも1つを取得して、端末側制御部30に対して入力する装置である。なお、生体情報を検出する方法としては、例えば、特開2005-270543号公報(米国特許第7538890号明細書)に記載されているような腕時計型を採用することができる。なお、血圧や脈拍は赤外線を用いた脈波検出センサにより検出すればよく、心拍数は振動センサにより検出すればよい。心拍数が通常よりも上昇したときが緊張状態であり、減少したときが弛緩状態である。また、緊張状態では瞳孔が拡大し、弛緩状態では瞳孔が縮小するので、瞳孔を検出して、緊張状態か弛緩状態かを判別するような構成を適用してもよい。
The biometric
位置検出部22は、ユーザの位置(絶対位置)を検出するものであり、ここでは、例えばGPS(Global Positioning System:全地球測位システム)が採用されている。なお、位置検出部22としては、RFID(Radio Frequency IDentification)などを用いた絶対位置計測システムを採用することとしても良い。
The
時刻検出部24は、現在の時刻を検出する計時機能を有している。カレンダ部26は、日付と曜日などとを対応付けて記憶している。フラッシュメモリ28は、データを一時記憶するメモリである。通信部32は、WiFi通信でアクセスポイントへアクセスするための無線LANユニットや、イーサネット(登録商標)ケーブルによる有線接続のユニット、あるいは、コンピュータ等の外部機器と通信を行うUSB接続のユニットを有している。本実施形態では、通信部32は、サーバ50の通信部52と通信を行うことが可能である。
The
端末側制御部30は、携帯型端末10の構成各部を統括的に制御し、携帯型端末10側の処理を実行するものである。例えば、端末側制御部30は、音声データ、画像データ、テキストデータなどが音声入力部42や画像入力部43、テキストデータ入力部44に入力されたときの時刻を時刻検出部24を介して取得するとともに、音声データ、画像データ、テキストデータが入力されたときの携帯型端末10の位置を位置検出部22を介して取得する。そして、端末側制御部30は、サーバ50側に音声データ、画像データ、テキストデータを送信する際に、データとともに時刻及び位置の情報をメタデータとして送信する。
The terminal-
サーバ50は、例えば、携帯型端末10を使用するユーザが勤務する会社内に設置されるものである。ただし、これに限らず、サーバ50は、システム管理会社に設置することとしても良い。このサーバ50は、図1に示すように、通信部52と、顔認識部53と、テキストデータ生成部54と、声紋分析部55と、重み付け部56と、抽出部58と、分類部60と、変換部62と、フラッシュメモリ64と、ハードディスク66と、サーバ側制御部70と、を有する。また、サーバ50は、これら各部の少なくとも一部を収容する、第2筐体51を有している。第2筐体51と、前述した携帯型端末10の第1筐体とは、機械的に(物理的に)分離されている。
For example, the server 50 is installed in a company where a user who uses the
通信部52は、携帯型端末10側の通信部32と同様であり、本実施形態では、携帯型端末10側の通信部32との通信を行うことが可能である。通信部52が受信したデータ(音声データ、画像データやテキストデータ)は、サーバ側制御部70を介して、フラッシュメモリ64に格納される。すなわち、通信部52は、サーバ50において、音声データ、テキストデータ、及び画像データをサーバ側制御部70に対して入力する入力部として機能している。
The
顔認識部53は、携帯型端末10側から送信されフラッシュメモリ64に記憶された画像から被写体(人物)の顔領域を検出するとともに、この検出された顔領域の顔と、ハードディスク66に登録された顔画像とを比較して、携帯型端末10側から送信された画像に含まれる顔が誰の顔であるかを特定する。顔認識の手法としては各種手法を用いることができ、本実施形態では、エッジ検出や形状パターン検出による顔検出方法、及び/又は、色相抽出や肌色抽出による顔検出方法とにより、顔認識を行うものとする。なお、顔認識部53は、サーバ側制御部70と協働して、携帯型端末10側から送信された画像データに対してノイズ低減処理やエッジ強調処理を行い、顔認識を行いやすくするための処理を施すこともできる。顔認識部53は、顔から認識した被写体(人物)の情報(名前や役職など)を、サーバ側制御部70に対して通知する。
The
なお、ハードディスク66に顔を登録する際に、その顔の守秘性(高、中、低)を設定することができるようにしてもよい。例えば守秘性が高い顔として登録されていれば、サーバ側制御部70は、その顔の画像を携帯型端末10に転送するのを禁止したり、表示部14に表示する際に画像の解像度を落としたり、モザイクをかけたりするなどの処理を行うことができる。また、サーバ側制御部70は、解像度を落としたり、モザイクをかけたりするなどの処理を行った顔の画像の近傍に、顔認識部53から通知された人物の情報を表示することができる。このようにすることで、モザイクをかけるなどして画像のみからでは誰の顔であるかを認識できなくなった場合でも、人物の情報を表示することでモザイク処理された画像の人物を特定することができるようになる。この場合、サーバ側制御部70は、人物の情報(例えば氏名や役職など)を、イニシャル変換して表示することとしてもよい。
When a face is registered in the
また、サーバ側制御部70は、ハードディスク66に登録されていない顔の画像を入力した場合に、未登録の顔の画像を携帯型端末10に転送するのを禁止したり、表示部14に表示する際に画像の解像度を落としたり、モザイクをかけたりするなどすることもできる。この場合、未登録者のプライバシーを守ることができる。
Further, when the face-side image not registered in the
なお、顔認識部53に代えて、又はこれとともに文字認識部を設けることとしてもよい。この場合、文字認識部が画像中に存在する文字(例えば、ホワイトボードや黒板などに書かれた文字や、スクリーンに映し出された文字など)を認識した結果をサーバ側制御部70に通知することとする。サーバ側認識部70では、文字の内容が、守秘性の高いものであると判断した場合には、画像の文字部分の解像度を落としたり、モザイクをかけたりするなどすることができる。サーバ側制御部70は、文字認識部による認識結果を所定のルールにしたがって変換し、画像の文字部分近傍に変換後の内容を表示するようにしてもよい。
Note that a character recognition unit may be provided instead of or in addition to the
テキストデータ生成部54は、フラッシュメモリ64に格納された音声データを取得し、当該音声データを変換してテキストデータを生成するものである。生成されたテキストデータは、サーバ側制御部70を介して、フラッシュメモリ64に格納される。
The text data generation unit 54 acquires voice data stored in the
声紋分析部55は、音声の大きさ(強さ)、周波数、長さを用いて、登録済みの声紋データとのパターンマッチングすることで声紋分析を行い、音声を発した人物を特定するものである。なお、声紋分析では、音声の大きさ(強さ)、周波数、長さの全てを用いなくても良く、少なくとも音声の周波数を用いることで、音声を発した人物を特定することとしても良い。ここで、複数の人の音声が音声入力部42に入力された場合には、声紋分析部55による声紋分析の精度が低下するおそれがある。この場合、音声入力されたときの画像が画像入力部43に入力されていれば、声紋分析部55は、顔認識部53による識別結果を加味して声紋分析を行うこととしてもよい。例えば、声紋分析部55は、顔認識部53により認識することが可能な人の口の動きを加味して、入力した音声を分析するようにしてもよい。
The
重み付け部56は、フラッシュメモリ64に格納されている音声データ及び音声データから生成されたテキストデータ、又はテキストデータ入力部44から入力されたテキストデータを取得し、各テキストデータの重み付けを行う。重み付け部56は、重み付けにより得られた数値(タスク優先度)をテキストデータとともに、フラッシュメモリ64に格納する。
The
重み付け部56による重み付けは、例えば、音声の大きさや周波数、テキストデータの意味に基づいて行われる。具体的には、重み付け部56は、音声の大きさや周波数に基づいて声紋分析部55で分析された結果(音声を発した人物が誰かという情報)から重み付けをしたり、テキストデータの意味から守秘性に応じた重み付けを行ったりする。なお、本実施形態において守秘性とは、他人(不特定の第三者)に見られないほうが好ましい度合いを意味する。
The weighting by the
重み付け部56には、変更部72と設定部74が接続されている。変更部72は、重み付け部56の重み付けに関する設定を変更するものであり、設定部74は、ユーザの指示に基づいて、重み付け部56の重み付けに関する設定を変更するものである。なお、設定部74は、サーバの入力部(キーボード等)から入力されるユーザの指示に基づいて、設定を変更することとしても良いし、通信部52,32を介して携帯型端末10の入力部12から入力されるユーザの指示を受けて、設定を変更することとしても良い。
A
抽出部58は、フラッシュメモリ64に格納されているテキストデータから、所定のワードを抽出する。すなわち、携帯型端末10の入力部12に入力された情報から、所定のワードを抽出する。この所定のワードとは、他人に見られないほうが好ましいワード、すなわち守秘性が比較的高いワードを意味し、当該ワードは、ハードディスク66に格納されたキーワードDB(図7参照)において、予め定められている。
The
なお、抽出部58は、顔認識部53やサーバ側制御部70と協働して、ユーザ毎にキーワードを設定して守秘性を抽出するようにしてもよい。
Note that the
分類部60は、抽出部58により抽出したワードを守秘性レベルの高いワード(第1ワード)と守秘性レベルがやや高い(中位の)ワード(第2ワード)とに分類する。この分類は、ハードディスク66に格納されているキーワードDB(図7参照)に基づいて、行われる。
The
変換部62は、守秘性レベルが「高」のワードと、守秘性レベルが「中」のワードとを、所定のルールに基づいて変換し、フラッシュメモリ64に格納する。
The
フラッシュメモリ64は、サーバ50内で処理するデータを一時的に記憶するものである。フラッシュメモリ64には、消去部76が接続されている。消去部76は、サーバ側制御部70の指示に基づいて、所定のタイミングで、フラッシュメモリ64に格納された音声データやテキストデータを消去する。なお、データを消去する具体的なタイミングについては、後述する。なお、フラッシュメモリ64に代えて、その他の揮発性メモリを用いることもできる。
The
ハードディスク66には、各種処理で用いるデータベースなどのデータが格納される。なお、ハードディスク66に代えて、その他の不揮発性メモリを用いることとしても良い。
The
サーバ側制御部70は、サーバ50内の各部を統括的に制御し、サーバ50側における処理を実行するものである。なお、サーバ50は、実際には、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有しており、ROM等に格納(インストール)されたプログラムをCPUが実行することで、前述した顔認識部53、テキストデータ生成部54、重み付け部56、抽出部58、分類部60、変換部62、声紋分析部55などの各部の機能を実現する。
The server-
また、サーバ側制御部70は、顔認識部53が行った画像内の被写体(人物)の顔認識結果に基づき、その画像の少なくとも一部にマスキング処理(解像度を落とす、モザイクをかける)を施す。例えば、画像内の人物が社内や社外の重要人物として予め登録されている人物(守秘性の高い人物)である場合には、その人物の顔にマスキング処理を施すようにする。あるいは、画像内の人物が在宅勤務者として予め登録されている人物である場合には、その人物の背景画像(在宅勤務者の家の中の様子を撮影した部分)にマスキング処理を施すようにする。また、顔認識部53が、被写体である人物が笑顔(表情が柔らかい)であるか、眉間に皺を寄せている(表情が硬い)かなどの表情を検出できる場合には、サーバ側制御部70は、例えば、笑顔であれば画像にマスキング処理を施さず、眉間に皺を寄せているような表情であれば、被写体や被写体の背景などにマスキング処理を施すようにすることができる。なお、前述したように、携帯型端末10の入力部12からの各種データには、時間並びに位置情報がメタデータとして付けられているので、サーバ側制御部70は、このメタデータを用いて画像に対するマスキング処理を行うか否かを判断することとしてもよい。例えば、同じ人の画像であっても、時刻や位置から社内や在宅勤務者の家で取得(撮影)した画像と推定できるような場合であればマスキング処理を施し、社外で取得した画像と推定できるような場合であればマスキング処理を施さないようにしてもよい。また、例えば、同じ人の画像であっても、その画像を閲覧する時刻や位置から社外で画像を閲覧すると推定できるような場合にはマスキング処理を施し、社内で画像を閲覧すると推定できるような場合にはマスキング処理を施さないようにしてもよい。サーバ側制御部70は、これらマスキング処理した画像(変換画像データ)を、オリジナル画像(元画像データ)とともに、フラッシュメモリ64に記憶する。なお、上述した眉間の皺や笑顔検出は、不図示の表情検出部により検出すればよい。不図示の表情検出部により眉間の皺を検出する場合には、眉間に皺のある画像をリファレンス画像としてフラッシュメモリ64に記憶させてパターンマッチングにより検出してもよく、また、左目と右目との間の部分の陰影分布から検出してもよい。なお、眉間の皺の検出は米国公開特許2008−292148号にも開示がある。また、不図示の表情検出部により笑顔を検出する場合には、フラッシュメモリ64に記憶されている笑顔データを参照して眉、瞳孔、唇の各要素の形状の評価ポイントを算出して求めればよい。なお、笑顔検出は米国公開特許2005−201594にも開示がある。
Further, the server-
次に、本実施形態のパーソナルアシスタントシステム100における処理について、図2〜図27に基づいて、詳細に説明する。
Next, the process in the
まず、音声入力部42から入力される音声をサーバ50側のフラッシュメモリ64に格納する処理(録音処理)について図2(a)〜図2(d)に基づいて説明する。なお、録音処理は、常時行うこととしても良いのは勿論であるが、省電力化を図り、効率的な録音を行うため、本実施形態では、図2(a)〜図2(d)の処理のうち、少なくとも2つの処理を同時並行的に行ったり、いずれか1つの処理のみを行ったりする。
First, a process (recording process) for storing the voice input from the
なお、画像入力処理は、携帯型端末10がポケットに入れられているタイプであれば、ユーザが不図示のスイッチを用いて画像入力操作を行った場合を、開始タイミングとすればよい。例えば、会議の開始と同時に画像入力操作を行って、会議の状況を撮影(入力)したり、あるいは、在宅勤務者が会社内の人と打ち合わせをする際には、画像入力操作を行って、顔や資料を撮影(入力)したりする。この場合、端末側制御部30は、画像入力操作に基づいて、画像入力部43の動作を制御する。
In the image input process, if the
なお、最近では、自分の行動を記録するライフログシステムも提案されている。携帯型端末10がユーザの首から吊り下げられているタイプであったりヘッドマウントディスプレイのようなタイプであったり、画像入力部43が携帯型端末10から分離して設けてある場合(例えば、メガネの横に設けられている場合)には、録音処理を行うのと同じタイミングで画像入力を行うものとしてもよい。
Recently, a life log system for recording one's actions has also been proposed. When the
(録音タイミング例1)
図2(a)は、ある人物が音声を発している間だけ、録音を実行する処理を示すフローチャートである。なお、音声入力部42に入力される音声は、通信部32、52を介して、サーバ側制御部70に入力されているものとする。
(Recording timing example 1)
FIG. 2A is a flowchart showing a process of recording only while a certain person is uttering sound. Note that the voice input to the
この図2(a)の処理では、ステップS10において、サーバ側制御部70が、音声入力部42から音声が入力されたか否かを判断する。ここでの判断が肯定されると、ステップS12では、サーバ側制御部70の指示の下、声紋分析部55が、入力された音声の声紋分析を行う。この声紋分析では、ハードディスク66に格納されている声紋DB(図3参照)に含まれる音声データと、入力された音声データとを照合(パターンマッチング)することにより、入力された音声を発した人物を特定する。ここで、図3の声紋DBには、人物名と、その人物の声紋データとが対応付けられている。なお、本システムをビジネス用として用いる場合には、例えば、会社の社員全員の声紋データを声紋DBに登録しておくなどすることができる。また、本システムをプライベート用として用いる場合には、各ユーザが個別に、家族や親戚、友人等の声紋データを声紋DBに登録しておくなどすることができる。この登録は、携帯型端末10の音声入力部42から行う。
In the process of FIG. 2A, in step S10, the server-
次いで、ステップS14では、サーバ側制御部70が、ステップS12において人物が特定されたか否か、すなわち、声紋DBに登録された人物の音声であったか否かを判断する。ここでの判断が肯定された場合には、サーバ側制御部70は、ステップS16において録音(フラッシュメモリ64への格納)を開始する。なお、録音された音声データは、テキストデータ生成部54においてテキストデータに変換されることから、この録音開始のタイミングは、テキストデータ生成のタイミングであるともいえる。一方、ステップS14における判断が否定された場合には、ステップS10に戻る。
Next, in step S14, the server-
ステップS14の判断が肯定され、ステップS16に移行した後は、サーバ側制御部70は、ステップS18において音声入力が所定秒間途絶えるまで、録音を続ける。そして、音声入力が所定秒間なかった場合、すなわち、音声入力が終了したとみなされた場合に、ステップS18の判断が肯定される。ステップS18の判断が肯定されると、端末側制御部30は、ステップS20において録音を終了して、ステップS10に戻る。
After the determination in step S14 is affirmed and the process proceeds to step S16, the server-
その後は、上記処理を繰り返すことで、声紋DBに登録されている人物が音声を発するタイミングごとに、録音が実行されるようになっている。なお、録音タイミングを決定する人物は、声紋DBとは別のDBにて管理しても良い。これにより、例えば、録音タイミングを決定する人物を、会議の主催者などに限定することが可能である。 After that, by repeating the above process, recording is executed at each timing when a person registered in the voiceprint DB utters a sound. The person who determines the recording timing may be managed in a DB different from the voiceprint DB. Thereby, for example, the person who determines the recording timing can be limited to the meeting organizer.
なお、図2(a)では、声紋に基づいて、ある人物が発声したタイミングで、録音を開始する場合について説明したが、これに限らず、例えば、電話に関連した周波数(例えば着信音の周波数)が音声入力部42から入力された時点から録音を開始することとしても良い。これにより、電話での会話を漏らすことなく録音することができるようになる。
In FIG. 2A, the case where recording is started at a timing when a certain person utters based on a voiceprint has been described. However, the present invention is not limited to this, and for example, a frequency related to a telephone (for example, a frequency of a ringtone) ) May be started from the point in time when it is input from the
(録音タイミング例2)
図2(b)は、予め登録されている時刻において録音を実行する処理を示すフローチャートである。なお、この図2(b)の処理は、図2(a)の場合と異なり、携帯型端末10側の通信部32から音声データをサーバ50側に送信するか、しないかを切り替えることで、録音タイミングを切り替えるものである。
(Recording timing example 2)
FIG. 2B is a flowchart showing a process for performing recording at a pre-registered time. 2B is different from the case of FIG. 2A in that the voice data is transmitted from the communication unit 32 on the
図2(b)では、ステップS24において、端末側制御部30が、時刻検出部24を介して、現在時刻を検出する。次いで、ステップS26では、端末側制御部30が、予め定められた録音開始時刻か否かを判断する。ここで、録音開始時刻は、携帯型端末10の出荷時に予め定められていても良いし、ユーザ等が、入力部12から予め入力しても良い。この録音開始時刻としては、例えば、人との会話などが多く、情報量が多いと考えられる時間(例えば、会社に出社した直後の1時間)や、集中力が途切れやすい時間(例えば、昼休み前後30分や、疲労がピークに達する残業時間(午後8時以降など))とすることができる。
In FIG. 2B, in step S <b> 24, the terminal
ステップS26の判断が肯定された場合には、ステップS28に移行し、通信部32が、端末側制御部30の指示の下、音声入力部42に入力された音声データをサーバ50側へ送信し始める。この場合、通信部52及びサーバ側制御部70を介して、音声データがフラッシュメモリ64に格納される(録音される)。
When the determination in step S26 is affirmed, the process proceeds to step S28, and the communication unit 32 transmits the voice data input to the
次いで、ステップS30では、端末側制御部30が、時刻検出部24を介して、現在時刻を検出する。そして、次のステップS32では、端末側制御部30が、予め定められている録音終了時刻が到来したか否かを判断する。ここでの判断が肯定されると、ステップS34に移行するが、判断が否定されると、ステップS30に戻る。ステップS34に移行した場合、通信部32は、端末側制御部30の指示の下、サーバ50側への音声データ送信を停止する。これにより、録音が終了する。その後は、ステップS24に戻り、上記処理を繰り返す。これにより、録音開始時刻が到来するたびに、録音を行うことができる。
Next, in step S <b> 30, the terminal-
(録音タイミング例3)
図2(c)は、予め登録されている会議の終盤に録音を実行する処理を示すフローチャートである。なお、この図2(c)の処理も、図2(b)と同様、通信部32から音声データをサーバ50側に送信するか、しないかを切り替えることで、録音タイミングを切り替えるものである。
(Recording timing example 3)
FIG. 2C is a flowchart showing a process for performing recording at the end of a conference registered in advance. In the process of FIG. 2C, the recording timing is switched by switching whether or not the voice data is transmitted from the communication unit 32 to the server 50 side, as in FIG. 2B.
図2(c)では、ステップS36において、端末側制御部30が、時刻検出部24を介して、現在時刻を検出する。次いで、ステップS38では、端末側制御部30が、フラッシュメモリ28に格納されているタスクリスト(後述する)の中から、会議の予定を抽出し、当該会議の終了時刻よりも所定時間前(例えば10分前)か否かを判断する。ここでの判断が肯定された場合には、ステップS40において、図2(b)のステップS28と同様の方法で録音を開始する。
In FIG. 2C, in step S <b> 36, the terminal
次のステップS42では、端末側制御部30が、時刻検出部24を介して、現在時刻を検出する。そして、次のステップS44では、端末側制御部30が、ステップS38の判断に用いた会議の終了時刻が到来したか否かを判断する。ここでの判断が肯定されると、ステップS46に移行するが、判断が否定されると、ステップS42に戻る。ステップS46に移行した場合、通信部32は、端末側制御部30の指示の下、サーバ50側への音声データ送信を停止する。その後は、ステップS36に戻り、上記処理を繰り返す。これにより、会議の終盤の所定時間における録音が可能となる。なお、会議の終盤に録音を行うこととしたのは、会議の終盤ほど、会議の結論が発言されたり、次の会議の予定がアナウンスされたりする可能性が高いからである。
In next step S <b> 42, the terminal
なお、図2(c)の処理では、会議が実施されている時間中、継続して録音を行うこととしても良い。また、その会議の司会者や発表者などがタスクリストに登録されている場合には、図2(a)の処理と組み合わせて、登録されている司会者や発表者の音声のみを録音するようにしても良い。 In the process of FIG. 2C, recording may be continuously performed during the time when the conference is being performed. In addition, when the presenter or presenter of the conference is registered in the task list, only the voice of the registered presenter or presenter is recorded in combination with the process of FIG. Anyway.
(録音タイミング例4)
図2(d)には、生体情報入力部20から入力される情報(ここでは、ユーザの筋肉の状態(緊張度及び弛緩度)とする)に基づいて、録音を実行する処理を示すフローチャートである。なお、この図2(d)の処理も、図2(b)、図2(c)と同様、通信部32から音声データをサーバ50側に送信するか、しないかを切り替えることで、録音タイミングを切り替えるものである。
(Recording timing example 4)
FIG. 2D is a flowchart showing a process of performing recording based on information input from the biological information input unit 20 (here, the user's muscle state (tension and relaxation)). is there. Note that the processing in FIG. 2D is also performed in the same manner as in FIGS. 2B and 2C, by switching whether or not the voice data is transmitted from the communication unit 32 to the server 50 side, thereby recording timing. Is to switch.
図2(d)では、ステップS50において、端末側制御部30が、生体情報入力部20を介して、ユーザの筋肉の状態を取得する。次いで、ステップS52では、端末側制御部30が、筋肉の状態と予め定められている閾値とを比較して、所定の弛緩状態か否かを判断する。ここでの判断が肯定された場合には、ステップS54において、図2(b)のステップS28と同様の方法で録音を開始する。
In FIG.2 (d), the terminal
次のステップS56において、端末側制御部30が、再度、筋肉の状態を取得すると、次のステップS58では、端末側制御部30が、筋肉の状態と予め定められている閾値とを比較して、所定の緊張状態か否かを判断する。ここでの判断が肯定されると、ステップS60に移行するが、判断が否定されると、ステップS56に戻る。ステップS60に移行した場合、通信部32は、端末側制御部30の指示の下、サーバ50側への音声データ送信を停止する。その後は、ステップS50に戻り、上記処理を繰り返す。以上の処理により、筋肉の状態から、ユーザの緊張度合いを判断し、ユーザがリラックスしすぎており、他人の話を聞いていないような状況(例えば居眠りをしている状況)での、音声の自動的な録音を行うことが可能となる。
In the next step S56, when the terminal
なお、図2(d)では、リラックスしすぎているときにのみ、音声を録音することとしたが、これとともに又はこれに代えて、適度に緊張しているときに音声を録音することとしても良い。適度に緊張している場合には、重要な話がされている可能性が高いからである。 In FIG. 2D, the voice is recorded only when the person is too relaxed. However, the voice may be recorded when the person is moderately strained together with or instead of the voice. good. This is because there is a high possibility that an important story is given when the person is moderately nervous.
なお、受話器(携帯型端末筐体)に発汗センサと圧力センサとの少なくとも一方を設けて受話器を保持する手の発汗量や、受話器の保持力からユーザが緊張状態または弛緩状態であることを検出してもよい。 In addition, it is possible to detect whether the user is in a tense state or a relaxed state based on the amount of sweating of the hand holding the handset and the holding power of the handset by providing at least one of a sweating sensor and a pressure sensor on the handset (portable terminal housing). May be.
この発汗センサと圧力センサとの出力を端末側制御部30に送信し、端末側制御部30はユーザが緊張状態または弛緩状態であると判断したときに音声入力部42による録音を開始するようにしてもよい。
The outputs of the perspiration sensor and the pressure sensor are transmitted to the terminal-
発汗センサとしては複数の電極を設けて手のインピーダンスを測定するようにすれば良い。感動、興奮、緊張といったような精神性発汗は、発汗量が少なく、発汗時間も短いので、指よりも発汗量が多い中手の掌側に対応して受話器に発汗センサを設ければよい。 A sweat sensor may be provided with a plurality of electrodes to measure hand impedance. Mental sweating such as emotion, excitement, and tension has a small amount of sweating and a short sweating time, so a sweating sensor may be provided on the handset corresponding to the palm side of the middle hand where the amount of sweating is greater than that of a finger.
圧力センサとしては、静電容量型、歪ゲージ、電歪素子のいずれを用いてもよく、ユーザが通常受話器を握る圧力よりも例えば10%以上大きな圧力で受話器を握ったときに緊張状態と判断するようにすればよい。 As the pressure sensor, any of a capacitance type, a strain gauge, and an electrostrictive element may be used. When the user grips the handset with a pressure that is 10% or more higher than the pressure at which the user normally grips the handset, it is determined that the tension state is present. You just have to do it.
また、発汗センサと圧力センサの少なくとも一方は、携帯型端末10に設けてもよく、携帯電話などに設けてもよい。
Further, at least one of the perspiration sensor and the pressure sensor may be provided in the
なお、上述したように、図2(a)〜図2(d)の処理において録音開始タイミングとなった場合でも、例えば、携帯型端末10が録音禁止位置に存在している場合などにおいては、録音を開始しないようにしても良い。録音禁止位置としては、例えば、ユーザが勤務する会社以外の会社内などを採用することができる。
As described above, even when the recording start timing is reached in the processes of FIGS. 2A to 2D, for example, when the
(音声データの処理)
次に、音声データが録音された後に行われる音声データの処理について、図4〜図23に基づいて説明する。図4は、音声データの処理に関するフローチャートである。
(Audio data processing)
Next, audio data processing performed after audio data is recorded will be described with reference to FIGS. FIG. 4 is a flowchart relating to processing of audio data.
図4のステップS70では、サーバ側制御部70が、フラッシュメモリ64に音声データが録音されたか否かを判断する。ここでの判断が肯定されると、ステップS72に移行し、テキストデータ生成部54が、サーバ側制御部70の指示の下、音声データをテキスト化する。この場合、音声データが所定時間途切れるたびにテキスト化される。また、サーバ側制御部70は、音声データをテキスト化したデータ(テキストデータ)と、音声データが音声入力部42に入力された時刻と、音声データが入力された位置と、音声データの音声レベルを、フラッシュメモリ64内の記憶データDB(図5)に登録する。なお、ここで登録される時刻や位置の情報は、前述のように、音声データとともに通信部32から送信されているものである。次いで、ステップS74では、声紋分析部55が、サーバ側制御部70の指示の下、声紋分析をして音声を発した人物を特定し、記憶データDBに登録する。なお、図2(a)のステップS12の処理を経ている場合には、ステップS74を行わずに、ステップS12の内容を記憶データDBに登録することとしても良い。
In step S <b> 70 of FIG. 4, the server-
図5には、記憶データDBのデータ構造が示されている。記憶データDBには前述した、時刻、位置、テキストデータ、発声人物、音声レベル、並びにタスクフラグ、タスク優先度が格納される。なお、タスクフラグ及びタスク優先度の項目については、後述する。 FIG. 5 shows the data structure of the storage data DB. The storage data DB stores the time, position, text data, voiced person, voice level, task flag, and task priority described above. The items of task flag and task priority will be described later.
図4に戻り、次のステップS76では、タスク判定のサブルーチンを実行する。タスク判定のサブルーチンでは、一例として、図6の処理を実行する。図6の処理では、ステップS110において、サーバ側制御部70が、テキストデータに日時が含まれているか否かを判断する。なお、ここでの日時には、何年何月何日何時という具体的な日時のほか、明日、明後日、午前、午後などの日時も含まれる。ここでの判断が肯定された場合には、ステップS114においてタスクと判定された後に、図4のステップS78に移行するが、判断が否定された場合には、ステップS112に移行する。
Returning to FIG. 4, in the next step S76, a subroutine for task determination is executed. In the task determination subroutine, for example, the processing of FIG. 6 is executed. In the process of FIG. 6, in step S <b> 110, the server-
ステップS112では、サーバ側制御部70がテキストデータに、特定のワードが含まれているか否かを判断する。ここで、特定のワードは、タスクに関連するワードであり、例えば、「すること」、「してください」、「しなさい(又は「しろ」、「やれ」)「しよう(又は「しましょう」)」、「します」、「予定しています」などのワードである。この特定のワードは、装置出荷時に予めハードディスク66内にテーブルとして格納されていても良いし、ユーザが随時追加するようにしても良い。ステップS112の判断が肯定された場合には、ステップS114においてタスクと判定された後に、図4のステップS78に移行する。一方、ステップS112の判断が否定された場合には、ステップS116においてタスクでないと判定された後に図4のステップS78に移行する。
In step S112, the server-
図4に戻り、ステップS78では、サーバ側制御部70が、図6の処理の結果、タスクと判定されたか否かを判断する。以下、ステップS78の判断が肯定された場合と、否定された場合の処理について説明する。
Returning to FIG. 4, in step S <b> 78, the server-
(ステップS78の判断が肯定された場合(タスクであった場合))
ステップS78の判断が肯定されると、ステップS80に移行し、サーバ側制御部70は、記憶データDB(図5)のタスクフラグをオンに設定する。次いで、ステップS82では、抽出部58が、サーバ側制御部70の指示の下、ハードディスク66に格納されているキーワードDB(図7)に基づいて、キーワードを抽出する。図7に示すように、キーワードDBには、キーワードと、そのキーワードの詳細情報、属性、守秘性のレベルと、が紐付けられている。したがって、抽出部58は、このキーワードDBのキーワードの項目に着目し、テキストデータから、キーワードDBに登録されているキーワードを抽出するようにする。
(If the determination in step S78 is affirmative (if it is a task))
If the determination in step S78 is affirmative, the process proceeds to step S80, and the server-
例えば、テキストデータが、
『11月20日13時に、クールブルースピーカ2のソフトウェア仕様について、大東京株式会社の青山一郎さんと打合せ予定』
であったとする。
For example, text data is
“At 13:00 on November 20th, we will have a meeting with Ichiro Aoyama of Dai Tokyo Co., Ltd. regarding the software specifications of
Suppose that
この場合、抽出部58は、図7のキーワードDBに登録されている「クールブルースピーカ2」、「ソフトウェア」、「仕様」、「大東京株式会社」、「青山一郎」を、キーワードとして抽出する。
In this case, the
なお、キーワードDBは、事前に予め作成しておく必要がある。また、キーワードDBの登録内容は、適宜(例えば、メンテナンス時等において)追加・変更が可能であるものとする。また、図7では、個人名、会社名、技術用語などの属性以外にも、特許情報や予算情報、商談情報などの属性でキーワードを登録しても良い。 The keyword DB needs to be created in advance. Also, it is assumed that the registered contents of the keyword DB can be added / changed as appropriate (for example, during maintenance). In FIG. 7, keywords may be registered with attributes such as patent information, budget information, and business negotiation information in addition to attributes such as personal names, company names, and technical terms.
図4に戻り、次のステップS84では、各キーワードの解析サブルーチンが実行される。図8には、ステップS84の解析サブルーチンの具体的処理がフローチャートにて示されている。 Returning to FIG. 4, in the next step S84, an analysis subroutine for each keyword is executed. FIG. 8 is a flowchart showing specific processing of the analysis subroutine in step S84.
この図8では、ステップS120において、分類部60が、サーバ側制御部70の指示の下、キーワードDBから、キーワードの守秘性のレベルを取得する。具体的には、分類部60は、キーワードDBから「クールブルースピーカ2」の守秘性レベルとして「中」を取得し、「ソフトウェア」の守秘性レベルとして「中」を取得し、「仕様」の守秘性レベルとして「中」を取得し、「大東京株式会社」の守秘性レベルとして「高」を取得し、「青山一郎」のレベルとして「高」を取得する。
In FIG. 8, in step S120, the
次いで、ステップS122では、変換部62が、サーバ側制御部70の指示の下、ステップS120で取得された守秘性に基づいてキーワードを変換し、変換後のキーワードを、フラッシュメモリ64に記憶するサブルーチンを実行する。
Next, in step S122, the
図9は、ステップS122のサブルーチンの具体的処理を示すフローチャートである。図9に示すように、変換部62は、まず、ステップS138において、抽出部58で抽出されたキーワードの中から1つのキーワードを選択する。なお、ここでは、一例として、「大東京株式会社」が選択されたものとする。
FIG. 9 is a flowchart showing specific processing of the subroutine of step S122. As shown in FIG. 9, the
次いで、ステップS140では、変換部62が、選択したキーワードの守秘性レベルが「高」であるか否かを判断する。「大東京株式会社」は、前述のように、守秘性レベルが「高」であるので、ここでの判断は肯定され、ステップS142に移行する。ステップS142では、変換部62が、キーワードを守秘性に応じて変換するサブルーチンを実行する。具体的には、図10に示すフローチャートに沿って処理を実行する。
Next, in step S140, the
図10のステップS160では、変換部62が、選択したキーワードに特定変換ワードが含まれているか否かを判断する。ここで、特定変換ワードとは、例えば、図11の特定変換ワードDBに定義されているような、会社名に頻繁に用いられるワード(株式会社、有限会社、(株)、(有)など)や、国等の機関に頻繁に用いられるワード(機構、省、庁など)や、教育機関に頻繁に用いられるワード(大学、高等学校など)等を意味する。
In step S160 of FIG. 10, the
選択されたキーワード「大東京株式会社」の場合、特定変換ワード「株式会社」を含んでいるので、ステップS160の判断は肯定され、ステップS162に移行する。ステップS162では、変換部62は、特定変換ワードを特定変換ワードDBに基づいて変換する。この場合、「大東京株式会社」のうちの「株式会社」の部分が「社」に変換される。次いで、ステップS164では、特定変換ワード以外の変換サブルーチンを実行する。
In the case of the selected keyword “Dai Tokyo Co., Ltd.”, since the specific conversion word “corporation” is included, the determination in step S160 is affirmed, and the process proceeds to step S162. In step S162, the
図12は、ステップS164の変換サブルーチンの具体的処理を示すフローチャートである。この図12に示すように、変換部62は、ステップS190において、変換対象部分(特定変換ワード以外の部分)が、地名であるか否かを判断する。ここで、変換対象部分「大東京」は、地名を含んではいるものの、地名そのものではないので、判断は否定され、ステップS194に移行する。
FIG. 12 is a flowchart showing specific processing of the conversion subroutine of step S164. As shown in FIG. 12, in step S190, the
ステップS194では、変換部62は、変換対象部分が氏名であるかを判断する。ここでは、氏名ではないので、判断は否定されステップS198に移行する。そして、ステップS198では、変換部62は、変換対象部分「大東京(DaiTokyo)」をイニシャル変換して「D」とする。ステップS198の処理が終了すると、図10のステップS165に移行する。
In step S194, the
ステップS165では、変換部62が、ステップS162,S164の変換後のワードを組み合わせる。具体的には、「D」と「社」とを組み合わせて「D社」とする。
In step S165, the
次いで、ステップS168では、変換部62が、変換対象のキーワード「大東京株式会社」に情報が付帯しているか否かを判断する。ここで、情報が付帯しているとは、図7のキーワードDBの情報の欄に、情報が入力されている場合を意味する。ここでは、「大東京株式会社」に、「電機 東京都品川区」が付帯しているため、ステップS168の判断は肯定され、ステップS170に移行する。
Next, in step S168, the
ステップS170では、変換部62が、付帯している情報のうちで、未だ選択されていない情報を1つ選択する。次いで、変換部62は、ステップS172において、選択した情報(例えば、「電機」)の守秘性レベルが「高」又は「中」であるか否かを判断する。ここで、「電機」が守秘性レベルが「低」であるとすると、ステップS172の判断は否定されるので、ステップS182に移行する。ステップS182では、変換部62は、全ての情報が選択済みであるか否かを判断する。ここでは、まだ、「東京都品川区」が未選択であるので、判断は否定されて、ステップS170に戻る。
In step S170, the
次いで、変換部62は、ステップS170において、未選択の情報「東京都品川区」を選択するとともに、ステップS172において、「東京都品川区」の守秘性レベルが「高」又は「中」か否かを判断する。ここで、図7のキーワードDBに示すように、地名は、「低」又は付帯するキーワードの守秘性レベルに準じると定義されているため、「東京都品川区」は、キーワード「大東京株式会社」に準じて、守秘性レベルは「高」となる。したがって、ステップS172の判断は肯定され、ステップS174に移行する。ステップS174では、変換部62は、「東京都品川区」に特定変換ワードが含まれているか否かを判断する。ここでの判断が否定されると、ステップS180に移行して、情報を変換する変換サブルーチンを実行する。このステップS180の変換サブルーチンは、基本的には、前述したステップS164と同様の処理(図12)である。
Next, the
すなわち、図12では、変換部62が、ステップS190において、「東京都品川区」が地名か否かを判断する。ここでの判断が肯定されると、変換部62は、ステップS192において、図13に示す地名DBに基づいて変換処理を実行する。具体的には、変換部62は、「東京都品川区」を、守秘性レベルが「高」の変換方法で変換することで、「関東南部」と変換する。なお、図13の地名DBでは、守秘性レベルが「高」の場合、当該地名を、比較的広い区域の中での位置として表現し、守秘性レベルが「中」の場合には、当該地名を、守秘性レベルが「高」の場合よりも狭い区域の中での位置として表現している。
That is, in FIG. 12, the
ステップS192の処理が終了すると、その後は、図10のステップS182に移行する。このステップS182の段階では、既に全ての情報(電機、東京都品川区)が選択済みであるので、ステップS182の判断が肯定されて、ステップS184に移行する。ステップS184では、変換部62が、変換後の情報を、変換後のキーワード(ステップS165又はS166)に対応付ける。ここでは、「D社(電機,関東南部)」となる。その後、図9のステップS144に移行する。
After the process of step S192 is complete | finished, it transfers to step S182 of FIG. In step S182, since all information (electrical equipment, Shinagawa-ku, Tokyo) has already been selected, the determination in step S182 is affirmed and the process proceeds to step S184. In step S184, the
図9のステップS144では、変換後のキーワードを、フラッシュメモリ64に記憶されているキーワード格納DB(図14参照)の領域Aに格納する。なお、図14に示すように、キーワード格納DBには、領域Aのほか、領域O、B、Cの格納領域が設けられている。領域Oには、キーワードの生データ(変換前キーワード)が、格納される。当該格納処理が完了すると、ステップS154に移行し、抽出部58で抽出されたキーワードの全てが選択済みであるか否かを判断する。ここでの判断が否定されると、ステップS138に戻る。
In step S144 of FIG. 9, the converted keyword is stored in the area A of the keyword storage DB (see FIG. 14) stored in the
次に、ステップS138において、変換部62が、キーワードとして「クールブルースピーカ2」を選択した場合について説明する。この場合、キーワードは、「クールブルースピーカ2」であり、守秘性レベルが「中」であるので、ステップS140の判断が否定される一方、ステップS146の判断が肯定されて、ステップS148に移行する。
Next, a case where the
ステップS148では、キーワードを守秘性に応じて変換するサブルーチンを実行する。具体的には、ステップS142と同様、図10の処理を実行することになる。図10の処理では、ステップS160において、変換部62が、「クールブルースピーカ2」に特定変換ワードが含まれているか否かを判断するが、ここでの判断は否定されるので、ステップS166に移行し、変換サブルーチンを実行する。このステップS166の変換サブルーチンでは、前述したステップS164、S180と同様に、図12の処理を実行する。図12では、「クールブルースピーカ2」は地名でも人名でもないので、ステップS190,S194の判断が否定され、変換部62は、ステップS198においてイニシャル変換を行う。この場合、キーワードDBにおいて、「クールブルースピーカ2(日本語表記)」に併記されている英語表記「Cool Blue Speaker2」をイニシャル変換(大文字部分をイニシャル変換)して「CBS2」と変換する。
In step S148, a subroutine for converting keywords according to confidentiality is executed. Specifically, as in step S142, the processing in FIG. 10 is executed. In the process of FIG. 10, in step S160, the
以上のようにして図12の処理が終了すると、図10のステップS168に移行するが、図7のキーワードDBでは、「クールブルースピーカ2」には何ら情報が付帯していないので、ステップS168の判断が否定されて、図9のステップS150に移行する。ステップS150では、変換後のキーワードを、図14に示すフラッシュメモリ64の領域Bに格納する。すなわち、変換部62は、領域Oにキーワードそのものを格納するとともに、当該キーワードに対応して領域Bに、「CBS2」を格納する。当該格納処理が完了すると、ステップS154に移行し、抽出部58で抽出されたキーワードの全てが選択済みであるか否かを判断する。ここでの判断が否定されると、再度、ステップS138に戻る。
When the processing in FIG. 12 is completed as described above, the process proceeds to step S168 in FIG. 10, but in the keyword DB in FIG. 7, no information is attached to “cool
次に、ステップS138において、変換部62が、キーワード「青山一郎」を選択した場合について説明する。この場合、「青山一郎」は守秘性レベルが「高」であるので、ステップS140の判断が肯定されて、ステップS142に移行する。
Next, a case where the
ステップS142では、前述したのと同様、図10の処理を実行する。図10の処理では、ステップS160が否定されて、ステップS166(図12の処理)に移行する。図12のステップS190では、その判断が否定され、ステップS194に移行する。ステップS194では、変換部62が、「青山一郎」が氏名か否かを判断する。そして、ここでの判断が肯定されると、ステップS196に移行する。なお、ステップS194において、「青山一郎」が氏名であると判断されるのは、図7のキーワードDBにおいて「青山一郎」の属性が、取引先の人名となっているからである。
In step S142, the process of FIG. 10 is executed as described above. In the process of FIG. 10, step S160 is denied and the process proceeds to step S166 (process of FIG. 12). In step S190 of FIG. 12, the determination is denied and the process proceeds to step S194. In step S194, the
ステップS196では、変換部62が、「青山一郎」をイニシャル変換する。なお、ステップS196では、キーワードの守秘性レベルが「高」の場合には、氏及び名の両方をイニシャル変換する。すなわち、「青山一郎(Aoyama Ichiro)」は「AI」に変換されることになる。一方、例えば、図7のキーワードDBに登録されている「上田三郎(Ueda Saburo)」のように、キーワードの守秘性レベルが「中」であった場合には、名のみをイニシャル変換する。すなわち、「上田三郎」は「上田S」にイニシャル変換される。なお、氏のみをイニシャル変換して、「U三郎」と変換しても良い。
In step S196, the
ステップS196の処理が完了すると、図10のステップS168に移行する。ここで、キーワード「青山一郎」には、図7に示すように、情報として「大東京株式会社 カメラ AFモータ 2009年10月15日特許研修会(東京)」が付帯しているので、ステップS168の判断は肯定され、ステップS170に移行する。そして、ステップS170では、例えば、情報「大東京株式会社」が選択される。「大東京株式会社」は前述したように守秘性レベルが「高」であるので、ステップS172の判断は肯定されて、ステップS174に移行する。そして、「大東京株式会社」は、特定変換ワード「株式会社」を含んでいるので、ステップS174の判断が肯定されて、当該特定変換ワードの変換(ステップS176)、及び特定変換ワード以外の変換(ステップS178)を実行する。なお、ステップS176,S178は、前述したステップS162、S164と同様である。そして、ステップS182の判断が否定されると、ステップS170に戻る。 When the process of step S196 is completed, the process proceeds to step S168 in FIG. Here, as shown in FIG. 7, the keyword “Ichiro Aoyama” is accompanied by “Dai Tokyo Co., Ltd., Camera AF Motor, October 15, 2009 Patent Workshop (Tokyo)” as information, so step S168. This determination is affirmed, and the routine goes to Step S170. In step S170, for example, the information “Dai Tokyo Co., Ltd.” is selected. Since “Great Tokyo Co., Ltd.” has the confidentiality level “High” as described above, the determination in Step S172 is affirmed and the process proceeds to Step S174. Since “Dai Tokyo Co., Ltd.” includes the specific conversion word “Co., Ltd.”, the determination in step S174 is affirmed, conversion of the specific conversion word (step S176), and conversion other than the specific conversion word (Step S178) is executed. Steps S176 and S178 are the same as steps S162 and S164 described above. If the determination in step S182 is negative, the process returns to step S170.
その後は、全ての情報が選択済みとなるまで、ステップS170〜ステップS182を繰り返す。そして、全ての情報が選択済みとなった後は、ステップS184において、変換後のキーワードに変換後の情報を対応付ける。ここでは、例えば、「AI(カメラ,AFM,2009年10月15日T会(東京))」と対応付けられる。そして、図9のステップS144で、領域Aへの格納が完了すると、ステップS154に移行し、抽出部58で抽出されたキーワードの全てが選択済みであるか否かを判断する。ここでの判断が否定されると、再度、ステップS138に戻る。
Thereafter, Steps S170 to S182 are repeated until all the information has been selected. After all the information has been selected, in step S184, the converted information is associated with the converted keyword. Here, for example, it is associated with “AI (camera, AFM, October 15, 2009 T meeting (Tokyo))”. Then, when the storage in the area A is completed in step S144 in FIG. 9, the process proceeds to step S154, and it is determined whether or not all the keywords extracted by the
なお、上記処理において、図9のステップS146の判断が否定された場合、すなわち、キーワードの守秘性レベルが「低」であった場合には、ステップS152において、当該キーワードをそのまま領域C(及び領域O)に格納する。なお、キーワードに情報が付帯している場合には、当該情報も領域Cに格納する。例えば、図14に示すように、キーワード「エスブイエス社」であれば、領域Cには、「エスブイエス社 機械 ドイツ ミュンヘン」として格納される。 In the above process, if the determination in step S146 of FIG. 9 is negative, that is, if the confidentiality level of the keyword is “low”, the keyword is left as it is in region C (and region C) in step S152. O). When information is attached to the keyword, the information is also stored in the area C. For example, as shown in FIG. 14, in the case of the keyword “SBS company”, the area C is stored as “SBS machine Germany Munich”.
また、上記処理において、例えば、ステップS138において選択されたキーワードが「ソフトウェア」であった場合には、ソフトウェアをイニシャル変換し、「SW」とするとともに、図7に示す情報<スポンジ>を変換せずに、SWに対応付ける。この場合において、<xx>という表記は、キーワードと対等で取り扱うワードであることを意味するものとする。すなわち、「ソフトウェア」と「スポンジ」のいずれかを用いるという意味であるものとする。したがって、キーワード「ソフトウェア」に対して上記処理を行った場合、フラッシュメモリ64の領域Bには、「SW」と「スポンジ」が対等に格納されることになる。なお、「SW」と「スポンジ」の使い分けについては、後述する。
In the above processing, for example, if the keyword selected in step S138 is “software”, the software is initially converted to “SW” and the information <sponge> shown in FIG. 7 is converted. Without associating with SW. In this case, the notation <xx> means that the word is handled on an equal basis with the keyword. That is, it means that either “software” or “sponge” is used. Therefore, when the above process is performed on the keyword “software”, “SW” and “sponge” are stored in the area B of the
以上の処理をその他のキーワード(ここでは「仕様」)に対しても行い、図9のステップS154の判断が肯定されると、図8のステップS124に移行する。 The above processing is also performed for other keywords (here, “specifications”), and if the determination in step S154 in FIG. 9 is affirmed, the process proceeds to step S124 in FIG.
ステップS124では、サーバ側制御部70が、発言者の属性に関する重みを取得する。この場合、図15(a)に示す属性に関する重みテーブルに基づいて、発言者の役職から、重み(Tw)を取得する。例えば、発言者が、図7の上田三郎である場合には、重み(Tw)としてマネジャー(M)の「2」を取得する。
In step S124, the server-
次いで、ステップS126では、サーバ側制御部70が、音声レベルに関する重みを取得する。この場合、サーバ側制御部70は、図15(b)に示す音声レベルに関する重みテーブルと、記憶データDB(図5参照)に記憶されている音声レベルと、に基づいて重み(Vw)を取得する。図5のように、音声レベルが70dbの場合には、重み(Vw)は3となる。なお、音声レベルが大きいほど重み(Vw)が大きいのは、音声レベルが大きいほど、頼まれ方が強く、重要度が高い場合が多いからである。
Next, in step S126, the server-
次いで、図8のステップS128では、サーバ側制御部70が、キーワードに関する重みを取得する。この場合、サーバ側制御部70は、図15(c)に示すキーワードに関する重みテーブルと、記憶データDBのテキストデータに含まれるキーワードと、に基づいて重み(Kw)を取得する。図15(c)では、「大切」「重要」や、「とても大切」「とても重要」が登録されているので、これらのキーワードがテキストデータに含まれていれば、重み(Kw)として、2又は3を取得する。また、ステップS128では、サーバ側制御部70は、テキストデータ中に、守秘性レベルが「高」のキーワード、守秘性レベルが「中」のキーワードがいくつ含まれていたかを判定し、その判定結果と、図15(d)に示すキーワードの守秘性に関する重みテーブルと、に基づいて、テキストデータの守秘性に関する重み(Cw)を取得する。例えば、テキストデータに、守秘性レベルが「高」のキーワードが2個、守秘性レベルが「中」のキーワードが1個含まれていた場合には、サーバ側制御部70は、Cw=8(=3×2+2×1)を取得する。
Next, in step S128 of FIG. 8, the server-
図8のステップS128の処理が完了すると、図4のステップS86に移行する。ステップS86では、サーバ側制御部70は、タスク優先度(Tp)を算出し、記憶データDB(図5)に登録する。具体的には、サーバ側制御部70は、タスク優先度(Tp)を、次式(1)を用いて、算出する。
Tp=Uvw×Vw+Utw×Tw
+Ufw×Fw+Ukw×Kw+Ucw×Cw …(1)
When the process of step S128 in FIG. 8 is completed, the process proceeds to step S86 in FIG. In step S86, the server-
Tp = Uvw × Vw + Utw × Tw
+ Ufw × Fw + Ukw × Kw + Ucw × Cw (1)
なお、上式(1)のUvw、Utw、Ufw、Ukw、Ucwは、各重み(Vw,Tw,Fw,Kw,Cw)の重要度を加味した重み付け係数であり、当該重み付け係数は、ユーザ等が設定部74を介して、設定することができるようになっている。
Note that Uvw, Utw, Ufw, Ukw, and Ucw in the above equation (1) are weighting factors that take into account the importance of each weight (Vw, Tw, Fw, Kw, Cw). Can be set via the
次いで、図4のステップS88に移行し、サーバ側制御部70は、テキストデータ中に含まれていたキーワードの、図16に示すキーワード記録DBへの登録を行う。なお、この図16のキーワード記録DBは、例えば、1週間、1ヶ月単位又は1年単位で作成されるものである。この図16のキーワード記録DBでは、テキストデータ中に含まれていたキーワード(登録キーワードと呼ぶ)と同時に使用されたキーワードや、登録キーワードの発言者、登録キーワードが発言された日時、場所、などの関連情報を逐一記録する。また、登録キーワードと関連情報が関連付けられた回数を関連度合いとして、記録する。更に、登録キーワードが発せられた回数を出現頻度として記録する。なお、図16のキーワード記録DBの検索頻度の項目については、後述する。
Next, the process proceeds to step S88 in FIG. 4, and the server-
なお、ステップS88の処理が完了した後は、ステップS70に戻る。 In addition, after the process of step S88 is completed, it returns to step S70.
(ステップS78の判断が否定された場合(タスクでなかった場合))
次に、ステップS78の判断が否定された場合について、説明する。ステップS78が否定されると、ステップS90に移行して、サーバ側制御部70が、タスクフラグをオフにする。次いで、ステップS92では、サーバ側制御部70が、発声者がユーザ自身であるか否かを判断する。ここでの判断が肯定された場合には、ステップS94に移行し、ユーザが発した言葉はコマンドであるか否かを判断する。ここでは、例えば、図17のコマンドDBに示すように、「タスクリスト」という言葉が、タスクリストを表示するコマンドであり、「音声録音テキスト」という言葉が、音声録音リストを表示するコマンドであり、「変換」という言葉が、変換処理のコマンドであるものとする。なお、このコマンドDBは、携帯型端末10側のフラッシュメモリ28又はサーバ50側のハードディスク66に格納されているものとする。このコマンドDBでは、例えば、ユーザの音声が「タスクリスト」であった場合に、図18(a)に示すようなタスクリストを表示することが定義されている。なお、タスクリストの詳細については後述する。また、コマンドDBでは、ユーザの音声が「音声録音リスト」であった場合に、図18(b)に示すような音声録音リストを表示することが定義されている。なお、この音声録音リストの詳細についても後述する。
(When the determination in step S78 is negative (when it is not a task))
Next, a case where the determination in step S78 is negative will be described. If step S78 is negative, the process proceeds to step S90, and the server-
図4に戻り、ステップS94の判断が否定された場合には、ステップS70に戻るが、ステップS94の判断が肯定された場合には、ステップS96に移行して、サーバ側制御部70が、コマンドに応じた処理を実行するサブルーチンを実行する。具体的には、図19、図20、図21の処理が同時並行的に実行される。
Returning to FIG. 4, if the determination in step S94 is negative, the process returns to step S70, but if the determination in step S94 is affirmative, the process proceeds to step S96, and the server-
まず、図19のフローチャートに沿って、サーバ50側での処理について説明する。サーバ50側では、ステップS202において、サーバ側制御部70が、コマンドは、表示要求であったか否かを判断する。この場合、前述のように、「タスクリスト」や「音声録音リスト」というコマンドが、表示要求に該当する。
First, processing on the server 50 side will be described with reference to the flowchart of FIG. On the server 50 side, in step S202, the server-
次いで、ステップS204では、サーバ側制御部70が、コマンドに応じた表示を行うのに必要なデータを、フラッシュメモリ64から抽出する。例えば、コマンドが「タスクリスト」であれば、タスクリストに表示すべきテキストデータ(図5におけるタスクフラグがオンになっているテキストデータ)をフラッシュメモリ64から抽出する。なお、この場合のタスクフラグがオンになっているテキストデータには、音声データから変換されたテキストデータのみならず、テキストデータ入力部44から直接入力されたテキストデータも含んでいる。なお、直接入力されたテキストデータのタスクフラグのオンオフは、前述した図6と同様の処理により実行する。
Next, in step S <b> 204, the server-
次いで、ステップS206では、サーバ側制御部70が、ユーザの現在位置を取得する。この場合、携帯型端末10が有する位置検出部22において検出される位置情報を、端末側制御部30、通信部32,52などを介して取得する。
Next, in step S206, the server-
次いで、ステップS208では、サーバ側制御部70が、取得した位置情報(現在位置)に基づいて、セキュリティ確保可能な場所であるかを判断する。ここで、セキュリティ確保可能な場所としては、例えば、会社内が挙げられる。なお、会社の位置の登録は、以下の方法で行われる。
Next, in step S208, the server-
例えば、ユーザは、携帯型端末10をUSB等によりPC(Personal Computer)に接続して、PC上で地図情報を用いた専用のアプリケーションを起動する。そして、当該アプリケーションで、会社の所在地を指定することで、会社の位置を登録する。なお、所在地の指定は、マウス等を用いたドローイング操作などにより行う。この会社の位置は所定面積の領域として表される。したがって、会社の位置としては、図22のセキュリティ確保可能範囲DBに示すように、矩形の領域の対角の2地点(緯度、経度)で表すことができる。この図22のセキュリティ確保可能範囲DBは、サーバ側制御部70のハードディスク66に格納される。
For example, the user connects the
すなわち、ステップS208では、サーバ側制御部70が、図22のセキュリティ確保可能範囲DBを参照して、ユーザが当該範囲内に入っている場合に、セキュリティ確保可能な場所内に位置していると判断される。
That is, in step S208, the server-
ステップS208の判断が肯定された場合には、ステップS210に移行する。このステップS210では、サーバ側制御部70は、抽出したデータに含まれるキーワードに対応付けられた変換ワードを領域O,A,B、Cから取得し、ステップS214に移行する。一方、ステップS208の判断が否定された場合には、ステップS212に移行する。このステップS212では、サーバ側制御部70は、抽出したデータに含まれるキーワードに対応付けられた変換ワードを領域A,Bから取得し、ステップS214に移行する。
If the determination in step S208 is affirmed, the process proceeds to step S210. In step S210, the server-
ステップS214では、サーバ側制御部70が通信部52を介して、抽出したデータ及びキーワードに対応付けられた変換ワードを携帯型端末10に向けて送信する。
In step S <b> 214, the server-
なお、ステップS202の判断が否定された場合、すなわち、コマンドが表示要求以外のコマンドであった場合には、サーバ側制御部70は、ステップS216においてコマンドに従った処理を実施する。
If the determination in step S202 is negative, that is, if the command is a command other than a display request, the server-
次に、図20に基づいて、携帯型端末10における処理について説明する。図20のステップS220では、端末側制御部30が、サーバ側からデータが送信されてきたか否かを判断する。本ステップでは、図19のステップS214が実行された後に、判断が肯定されることになる。
Next, processing in the
次いで、ステップS221では、端末側制御部30が、領域A,B,Cの変換ワードが送信されてきたか否かを判断する。ここでは、図19のステップS210を経た場合に判断が肯定され、ステップS212を経た場合に判断が否定される。
Next, in step S221, the terminal-
ステップS221の判断が肯定された場合、ステップS222において、端末側制御部30が、抽出したデータに含まれるキーワードを領域A,B、Cの変換ワードで変換する。すなわち、例えば、抽出したデータが、
『11月20日13時に、クールブルースピーカ2のソフトウェア仕様について、大東京株式会社の青山一郎さんと打合せ予定』
であったとする。この場合、領域A,B、Cの変換ワードを用いて、
『11月20日13時に、CBS2のSWSPについて、D社(電機,関東南部)のAI(カメラ,AFM,2009年10月15日T会(東京))さんと打合せ予定』
と変換される。
If the determination in step S221 is affirmed, in step S222, the terminal-
“At 13:00 on November 20th, we will have a meeting with Ichiro Aoyama of Dai Tokyo Co., Ltd. regarding the software specifications of
Suppose that In this case, using the conversion words of regions A, B, and C,
“At 13:00 on November 20th, we will have a meeting with AI (Camera, AFM, T-Meeting, Tokyo, October 15, 2009) from Company D (Electricity, Southern Kanto) about SWSP of CBS2.”
Is converted.
一方、ステップS221の判断が否定された場合、ステップS223において、端末側制御部30が、抽出したデータを、領域Bの変換ワードで変換するとともに、領域Aのワードを削除する。この場合、上記抽出したデータは、
『11月20日13時に、CBS2のSWSPについて、 の さんと打合せ予定』
と変換される。このように、本実施形態では、セキュリティが確保されているか否かによって、データの表示態様が変更されるようになっている。
On the other hand, if the determination in step S221 is negative, in step S223, the terminal-
“Scheduled meeting with Nosan about CSP2 SWSP at 13:00 on November 20”
Is converted. Thus, in this embodiment, the data display mode is changed depending on whether security is ensured.
上記のようにして、ステップS222又はステップS223の処理が行われた後は、ステップS224に移行し、端末側制御部30は、変換後のテキストデータを、表示部14の所定の位置に表示する処理を実行する。この表示においては、単にタスクの時刻(日時)が現在時刻(日時)に近い順に表示することとしても良いが、本実施形態では、これに代えて、タスク優先度の高い順に表示することとする。これにより、ユーザは、重要なタスクの見落としを低減することができるとともに、複数の予定をダブルブッキングしてしまった場合でも優先度の高いタスクを優先して予定を組むことができるようになる。なお、ダブルブッキングしている場合には、端末側制御部30が警告部18を介して警告を発しても良いし、優先度の低い方の予定に関わる人がタスクに含まれているような場合には、その人に対して、端末側制御部30がタスクの日程の変更依頼通知を電子メールにて自動で依頼するようにしてもよい。ただし、上記のようにタスク優先度の高い順に表示する場合に限られるものではなく、日時順に表示しても勿論良い。また、日時順に表示して、タスク優先度の高いタスクのフォント、色、大きさなどを変更して目立つように表示することとしても良い。また、タスク優先度の高い順に並べた上で、タスク優先度が同一であるタスクについては、日時順に表示することとしても良い。
After the process of step S222 or step S223 is performed as described above, the process proceeds to step S224, and the terminal-
以上、図19、図20の処理により、図18(a)や図18(b)に示すような画面表示がなされる。なお、図18(b)の録音音声リストには、タスクの項目が設けられている。ユーザは、当該タスクの項目をタッチパネル上でタッチしたりすることで、タスクフラグのオンオフを切り替えることができる。この場合、サーバ側制御部70は、ユーザによるタスクフラグの切り替え操作を認識したときには、図5のタスクフラグを変更するものとする。これにより、図6の処理の結果、タスクフラグのオンオフがユーザの認識と異なっていたとしても、ユーザは、タスクフラグを手動で変更することができるようになる。なお、ユーザがタスクフラグをオンにした場合には、それ以降、そのタスクのテキストデータと類似するテキストデータについては、サーバ側制御部70がタスクフラグを自動でオンにすることとしても良い。
As described above, the screens shown in FIGS. 18A and 18B are displayed by the processing of FIGS. Note that a task item is provided in the recorded voice list of FIG. The user can switch the task flag on and off by touching the item of the task on the touch panel. In this case, the server-
なお、図20の処理では、端末側制御部30は、位置検出部22で取得される現在位置をサーバ側制御部70側に送信し、サーバ側制御部70から送信されてくる変換ワードを用いて、テキストデータを変換して表示することとしている。したがって、本実施形態では、端末側制御部30が、位置検出部22で取得される現在位置に応じて、表示部14への表示を制限していると言うことができる。
In the process of FIG. 20, the terminal-
次に、図21に基づいて、図20の処理と並行して行われる処理について説明する。図21では、ステップS232において、端末側制御部30が、ユーザによって、文書変換ボタンが押されたか否かを判断する。なお、文書変換ボタンは、図18(a)、図18(b)では、右上端に表示されているボタンである。ユーザは、タッチパネル操作や、キーボード操作等により、文書変換ボタンを押す。このステップS232における判断が肯定されると、ステップS234に移行し、否定されると、ステップS238に移行する。
Next, processing performed in parallel with the processing of FIG. 20 will be described based on FIG. In FIG. 21, in step S232, the terminal-
ステップS234では、端末側制御部30が、変換可能なキーワードが表示されているか否かを判断する。ここで、変換可能なキーワードとは、前述した、図14に示す「SW」と「スポンジ」のように、1つのキーワードに対し複数の変換ワードが対応付けられているようなキーワードを意味する。したがって、表示部14に表示されているテキストデータに、このようなキーワードが含まれている場合には、ここでの判断が肯定され、ステップS236に移行する。一方、ステップS234の判断が否定された場合には、ステップS238に移行する。
In step S234, the terminal-
ステップS236に移行した場合、端末側制御部30が、キーワードを変換する。具体的には、例えば、
『11月20日13時に、CBS2のSWSPについて、D社(電機,関東南部)のAI(カメラ,AFM,2009年10月15日T会(東京))さんと打合せ予定』
と表示されている文章では、「SW」を「スポンジ」に変換することができるので、端末側制御部30は、
『11月20日13時に、CBS2のスポンジSPについて、D社(電機,関東南部)のAI(カメラ,AFM,2009年10月15日T会(東京))さんと打合せ予定』
と、変換して表示する。
When the process proceeds to step S236, the terminal-
“At 13:00 on November 20th, we will have a meeting with AI (Camera, AFM, T-Meeting, Tokyo, October 15, 2009) from Company D (Electricity, Southern Kanto) about SWSP of CBS2.”
Can be converted into “sponge”, the terminal-
“At 13:00 on November 20, CBS2 sponge SP is scheduled to be discussed with AI (Camera, AFM, October 15, 2009 T meeting (Tokyo)) of Company D (Denki, South Kanto)”
And converted and displayed.
ユーザは、「SW」という表示では、ソフトウェアを想起できない場合でも、文書変換ボタンを押して、「スポンジ」という表記を見ることで、スポンジ→柔らかい(soft)→ソフトウェア(Software)というような連想により、ソフトウェアを想起できるようになる。なお、スポンジという言葉を初めて見た場合には、このような連想はできないかもしれないが、社内で当該連想の方法を周知させておけば、ソフトウェアの想起は容易である。 Even if the software cannot be recalled with the display “SW”, the user can press the document conversion button and look at the notation “sponge”, so that the association such as sponge → soft → software (Software) Be able to recall software. When the word sponge is seen for the first time, such an association may not be possible, but if the method of the association is made known in-house, the software can be easily recalled.
次に、ステップS238では、端末側制御部30が、変換前表示ボタン(図18(a)、図18(b)参照)が押されたか否かを判断する。なお、ユーザが、変換前表示ボタンを押す場合とは、キーワードが変換されていない文章を見たい場合である。ここでの判断が否定された場合には、ステップS232に戻るが、ここでの判断が肯定された場合には、ステップS240に移行する。ステップS240では、端末側制御部30が、ユーザの現在位置を取得し、ステップS242では、現在位置がセキュリティ確保可能な場所か否かを判断する。ここでの判断が否定された場合、すなわちユーザがセキュリティ確保できない場所にいる場合には、ユーザに変換前の文章を見せるのを制限する必要があるので、ステップS252において表示不可能な旨をユーザに通知して、ステップS232に戻る。なお、ステップS252の通知の方法としては、表示部14への表示や警告部18を介した警告などを採用することができる。
Next, in step S238, the terminal-
ステップS242の判断が肯定された場合には、ステップS244に移行し、端末側制御部30は、質問事項(ユーザであれば簡単に解答ができる質問)を表示部14に表示する。なお、質問事項については、サーバ50側のハードディスク66に格納されているものとし、端末側制御部30は、当該質問事項をハードディスク66から読み出して、表示部14に表示する。この質問事項及び回答例は、例えば、ユーザが事前に登録しておけば良い。
When the determination in step S242 is affirmed, the process proceeds to step S244, and the terminal-
次いで、ステップS246では、端末側制御部30は、入力部12に対し、ユーザが、音声で回答を入力したか否かを判断する。ここでの判断が肯定されると、端末側制御部30は、ステップS248において、ユーザの声であり、かつ回答が正しいか否かを判断する。ユーザの声か否かは、前述したサーバ50側の声紋分析部55において音声を分析した結果を用いて判断する。ここでの判断が否定された場合には、ステップS252において、表示不可能な旨をユーザに通知する。一方、ステップS248の判断が肯定された場合には、ステップS250に移行し、領域Oの変換ワードで、キーワードを変換前の状態となるように変換して表示する。具体的には、音声で入力されたままの文章、すなわち、上記の例では、
『11月20日13時に、クールブルースピーカ2のソフトウェア仕様について、大東京株式会社の青山一郎さんと打合せ予定』
と表示する。その後は、ステップS232に移行し、上記処理を繰り返す。なお、上記においては、ユーザが声で質問に回答する場合について説明したが、これに限らず、キーボード等から回答を入力することとしても良い。この場合、端末側制御部30は、質問の回答に加えて、指紋認証などの生体認証の結果に基づいて、変換前の状態の表示を行うか否かを判断しても良い。
Next, in step S246, the terminal-
“At 13:00 on November 20th, we will have a meeting with Ichiro Aoyama of Dai Tokyo Co., Ltd. regarding the software specifications of
Is displayed. Thereafter, the process proceeds to step S232, and the above process is repeated. In the above description, the case where the user answers the question with a voice has been described. However, the present invention is not limited thereto, and the answer may be input from a keyboard or the like. In this case, the terminal-
以上のようにして、図4のステップS96の処理が終了すると、ステップS70に戻る。 As described above, when the process of step S96 in FIG. 4 is completed, the process returns to step S70.
一方、図4のステップS92の判断が否定された場合、すなわち、発声者がユーザでなかった場合には、ステップS100に移行して、端末側制御部30が、発声者の情報を表示する。なお、ここでは、端末側制御部30は、サーバ側制御部70から受け取った情報に基づいた表示を行う。具体的には、発声者が青山一郎であれば、端末側制御部30は、その情報をサーバ側制御部70から受け取って、「青山一郎」と表示する。なお、青山一郎に付帯する情報を受け取った場合には、その情報も表示することとしても良い。また、青山一郎に関連するタスクを、サーバ側制御部70から受け取った場合には、そのタスクも併せて表示することとしても良い。
On the other hand, if the determination in step S92 in FIG. 4 is negative, that is, if the speaker is not a user, the process proceeds to step S100, and the terminal-
このようにすることで、例えば、青山一郎氏が「おはよう」などとユーザに声を掛けてきたときに、表示部14上に、名前や、関連する情報、タスクなどを表示することができる。これにより、ユーザが人の名前や情報、あるいはその人に関連してやるべきことなどを思い出すのを支援することができる。
By doing so, for example, when Mr. Ichiro Aoyama calls the user “Good morning”, the name, related information, tasks, and the like can be displayed on the
次いで、ステップS102では、サーバ側制御部70が、図23に示す曖昧ワードDBに登録されているワードが発言されたか否かを判断する。ここでの判断が否定されると、ステップS70に戻るが、判断が肯定されると、ステップS104に移行する。
Next, in step S102, the server-
ステップS104では、サーバ側制御部70及び端末側制御部30が、図23の曖昧ワードDBに基づいて、発言されたワードに対応する処理を実行する。具体的には、「あの件」や「例の件」と発言された場合には、サーバ側制御部70は、キーワード記録DBを参照し、発言者が関連情報に含まれるキーワードのうち、出現頻度が所定の閾値よりも高いキーワードを抽出し、端末側制御部30に送信する。そして、端末側制御部30は、受信したキーワードを、表示部14に表示する。例えば、発言者が山口部長であり、出現頻度の閾値が10であるような場合には、図16のキーワード記録DBにおけるキーワード「プロジェクトA」が表示部14に表示されることになる。また、図23に示すように、「(地名)の件」、例えば、「北海道の件」と発言されたような場合には、発言者が関連情報に含まれており、かつ、音声データが入力された位置(緯度、経度)が所定範囲(例えば北海道内)であるキーワード、又は、発言者が関連情報に含まれており、かつ、「北海道」というワードが関連情報に含まれているようなキーワードを抽出して、表示部14に表示するようにする。更に、例えば、「○月○日(MM/DD)の件」と発言されたような場合には、発言者が関連情報に含まれており、かつ、音声データが入力された日時が○月○日(MM/DD)と一致するキーワード、又は、発言者が関連情報に含まれており、かつ、「○月○日(MM/DD)」というワードが関連情報に含まれているようなキーワードを抽出して、表示部14に表示するようにする。更には、ある人がある時刻(日時)に話すことが、図16のキーワード記録DBから容易に推定できるような場合もある。このような場合には、発言者と現在時刻とから、関連するキーワードを表示するようにしても良い。
In step S104, the server-
ステップS104では、以上のような処理を実行することで、発言者が曖昧な問いかけをしてきたとしても、その問いかけで、何を聞いているのかを自動で判断して、ユーザに対して表示することが可能となる。なお、ステップS104において、キーワードを表示するたびに、サーバ側制御部70は、キーワード記録DBの検索頻度を更新する。この検索頻度は、例えば、検索頻度の多いキーワードほど優先的に表示する場合などにおいて利用することができる。
In step S104, even if the speaker has asked an ambiguous question by executing the processing as described above, the question is automatically judged and displayed to the user. It becomes possible. In step S104, each time a keyword is displayed, the server-
(画像データの処理)
次に、画像データがサーバ側制御部70に送信された際の、サーバ側制御部70による画像データの処理について、図24、図25に基づいて説明する。図24は、画像データの入力・記憶処理に関するフローチャートである。
(Image data processing)
Next, processing of image data by the server-
図24の処理では、まず、ステップS302において、サーバ側制御部70が、画像データが入力されたか否かを判断する。ここでの判断が肯定されると、ステップS304に移行する。ステップS304では、サーバ側制御部70が、画像データのメタデータ(携帯型端末10において画像入力部43が画像を取得したときに、位置検出部22で検出された位置情報又は時刻検出部24で検出された時刻情報)を、取得する。
In the process of FIG. 24, first, in step S302, the server-
次いで、ステップS306では、サーバ側制御部70が、位置情報又は時刻情報に基づいて、画像データがマスキング処理対象画像のデータであるか否かを判断する。この場合、画像を取得した位置が社内や在宅勤務者の家である場合や、画像を取得した時刻が社内や在宅勤務者の家での撮影時刻であると推定できる時刻である場合に、画像データがマスキング処理対象画像のデータであると判断される(ステップS306の判断が肯定される)。
Next, in step S306, the server-
ステップS306の判断が肯定された場合には、ステップS308に移行し、サーバ側制御部70は、画像の中で、マスキング処理する部分を特定する。例えば、サーバ側制御部70は、画像中の被写体(人物)の顔認識結果を、顔認識部53から取得し、当該顔認識結果に基づいて、被写体が社内又は社外の重要人物(守秘性の高い人物)である場合には、当該被写体をマスキング処理する部分として特定する。また、例えば、サーバ側制御部70は、顔認識部53による顔認識結果に基づいて、被写体が在宅勤務者であるような場合には、当該被写体の背景部分を、マスキング処理する部分として特定する。また、例えば、文字認識部(不図示)がホワイトボードや黒板に書かれた文字や、スクリーンなどに映し出されている文字を認識した結果、守秘性の高い単語が含まれていた場合には、サーバ側制御部70は、当該文字部分をマスキング処理する部分として特定する。
When the determination in step S306 is affirmed, the process proceeds to step S308, and the server-
次いで、ステップS310では、サーバ側制御部70は、画像データのうちステップS308で特定された部分をマスキング処理して、マスキング処理後の画像(変換画像)を生成し、当該変換画像を、フラッシュメモリ64に記憶する。この場合、サーバ側制御部70は、フラッシュメモリ64に設けられた変換画像の記憶領域に記憶する。
Next, in step S310, the server-
次いで、ステップS312では、サーバ側制御部70は、元画像データをフラッシュメモリ64に記憶する。この場合、フラッシュメモリ64に設けられた元画像の記憶領域に記憶する。なお、変換画像と当該変換画像の元画像とは、関連付けられた状態で、フラッシュメモリ64に記憶される。
Next, in step S <b> 312, the server-
なお、ステップS306の判断が否定された場合、すなわち、サーバ側制御部70に入力された画像が、マスキング処理対象画像でなかった場合には、ステップS312において、サーバ側制御部70は、入力画像をフラッシュメモリ64に記憶する。
If the determination in step S306 is negative, that is, if the image input to the server-
以上のようにして、サーバ側制御部70における、画像データの入力・記憶処理が完了する。
As described above, the image data input / storage processing in the server-
なお、上記においては、画像を取得した位置や時刻に基づいて、マスキング処理するか否かを判断したが、これに限られるものではない。顔認識部53が、被写体の表情、すなわち被写体である人物が笑顔(表情が柔らかい)であるか、眉間に皺を寄せている(表情が硬い)かなどの表情を検出できる場合には、サーバ側制御部70は、例えば、笑顔であれば画像にマスキング処理を施さず、眉間に皺を寄せているような表情であれば、被写体や被写体の背景などにマスキング処理を施すように判断をしてもよい。
In the above description, whether or not to perform the masking process is determined based on the position and time when the image is acquired. However, the present invention is not limited to this. If the
次に、図25に基づいて、サーバ側制御部70による、画像データの表示処理について説明する。図25は、画像データの表示処理に関するフローチャートである。
Next, image data display processing by the server-
図25の処理では、まず、ステップS330において、サーバ側制御部70は、携帯型端末10を介したユーザからの表示指示が入力されるまで待機する。次いで、ステップS332では、サーバ側制御部70が、表示指示で特定された(表示指示に含まれる)画像データを特定する。次いで、ステップS334では、サーバ側制御部70が、特定した画像データに対応する変換画像が、フラッシュメモリ64内に存在しているか否かを判断する。ここでの判断が否定された場合には、ステップS342に移行し、サーバ側制御部70は、元画像データ(サーバ側制御部70に入力されたデータ)を通信部52、32を介して端末側制御部30に対して送信する。端末側制御部30では、受信した画像データを表示部14を介して表示する。
In the processing of FIG. 25, first, in step S330, the server-
一方、ステップS334の判断が肯定された場合には、ステップS336に移行する。ステップS336では、サーバ側制御部70が、位置情報又は時刻情報を取得する。この場合、サーバ側制御部70は、ユーザから表示指示が入力された携帯型端末10の位置又は時刻を取得する。
On the other hand, if the determination in step S334 is affirmed, the process proceeds to step S336. In step S336, the server-
次いで、ステップS338では、サーバ側制御部70は、取得した位置又は時刻の情報に基づいて、変換画像を表示するか否かを判断する。サーバ側制御部70は、例えば、取得した位置がセキュリティが保たれていない場所(例えば、社外)である場合や、時刻から携帯型端末10がセキュリティが保たれていない場所にあると推定できる場合には、変換画像を表示すると判断する(ステップS338は肯定される)。この場合、サーバ側制御部70は、ステップS340において、変換画像データを通信部52、32を介して端末側制御部30に対して送信する。端末側制御部30では、受信した変換画像データを表示部14を介して表示する。その一方で、例えば、取得した位置が、セキュリティが保たれている場所(例えば、社内)である場合や、時刻から携帯型端末10がセキュリティが保たれている場所にあると推定できる場合には、変換画像を表示しない、すなわち元画像を表示すると判断する(ステップS338は否定される)。この場合、サーバ側制御部70は、ステップS342において、元画像データを通信部52、32を介して端末側制御部30に対して送信する。端末側制御部30では、受信した元画像データを表示部14を介して表示する。
Next, in step S338, the server-
以上のようにして、ステップS340又はステップS342の処理が完了すると、図25の全処理を終了する。 As described above, when the process of step S340 or step S342 is completed, the entire process of FIG.
なお、上記においては、図24の処理において画像が取得された位置又は時刻に基づいて変換画像を予め生成しておき、図25の処理において携帯型端末10の位置又は時刻に基づいて、予め生成しておいた変換画像を表示するか否かを判断する場合について説明したが、これに限られるものではない。例えば、図24の処理を省略し、図25の処理において携帯型端末10の位置又は時刻に基づいて変換画像を表示すべきと判断された場合にのみ、変換画像を生成するようにしてもよい。この場合においても、変換画像は、画像の取得位置や時刻、及び/又は画像の表示位置や時刻に基づいて、生成することとすればよい。
In the above, a converted image is generated in advance based on the position or time at which the image was acquired in the process of FIG. 24, and generated in advance in the process of FIG. 25 based on the position or time of the
なお、図24の処理において変換画像が生成された場合には、表示位置、時刻にかかわらず、常に変換画像を表示する(元画像を変換しない)ようにしてもよい。また、常に変換画像を表示するか、図25の処理を行うかの設定をユーザが行えるようにしてもよい。 Note that when a converted image is generated in the process of FIG. 24, the converted image may always be displayed (the original image is not converted) regardless of the display position and time. Also, the user may be able to set whether to always display the converted image or to perform the processing of FIG.
また、上記においては、サーバ側制御部70は、表示指示が入力された時点での位置又は時刻の情報を取得し、当該情報に基づいて、変換画像データと元画像データのいずれを表示するかを判断する場合について説明した。しかしながら、これに限られるものではない。例えば、サーバ側制御部70は、表示指示を出した携帯型端末10の位置をモニタしておき、携帯型端末10がセキュリティが確保された場所に存在している間は、元画像データを表示し、携帯型端末10がセキュリティが確保されていない場所に移動した場合に、変換画像データを表示するようにしてもよい。このようにすることで、携帯型端末10の移動を考慮した適切な表示を行うことが可能となる。
Further, in the above, the server-
なお、画像データが動画像データである場合には、再生部16は、画像(動画)を表示するときに、スピーカから、当該画像に関連付けられている音声を出力することができる。また、動画の音声データを、前述した方法によりテキストデータに変換している場合には、再生部16は、画像を表示する際にテロップとしてテキストデータを表示することとしてもよい。この場合、テキストデータが上位概念等に変更されている場合には、再生部16は、変更後のテキストデータを表示することとしてもよい。また、再生部16はスピーカから音声を出力する際に、上位概念等に変換されたテキストデータを音声データにしたものを出力することとしてもよい。この場合、上位概念等に変換されたテキストデータには音声データが存在しない。したがって、このような場合には、予め収録した音声波形データ(音声データベース)の多数の音声素片の中から音韻記号を参照して音声合成に使用される音声素片(例えば、エンコーダの連想語である「ぐるぐる」の“gu”,“ru” “gu”,“ru”)を選択する音声合成技術を用いるものとする。なお、音声合成技術については例えば日本特許第3,727,885号に記載されている。なお、表示部14において表示される画像データが変換画像データである場合には、音声を出力しないようにしてもよい。
When the image data is moving image data, the playback unit 16 can output sound associated with the image from the speaker when displaying the image (moving image). Further, when the audio data of the moving image is converted into text data by the method described above, the playback unit 16 may display the text data as a telop when displaying the image. In this case, when the text data is changed to a superordinate concept or the like, the reproducing unit 16 may display the changed text data. Further, when outputting the sound from the speaker, the reproducing unit 16 may output the text data converted into the superordinate concept or the like as the sound data. In this case, there is no voice data in the text data converted into a superordinate concept or the like. Therefore, in such a case, a speech unit (for example, an associative word of an encoder) used for speech synthesis with reference to a phoneme symbol from among a large number of speech units of speech waveform data (speech database) recorded in advance. It is assumed that a speech synthesis technique for selecting “gu”, “ru” “gu”, “ru”) is used. The speech synthesis technique is described in, for example, Japanese Patent No. 3,727,885. If the image data displayed on the
また、変換画像のうち、マスキング処理した部分が、人物の顔である場合には、サーバ側制御部70は、当該部分の近傍に、顔認識部53で認識された人物の情報(名前や役職)を表示するようにしてもよい。この場合の人物の情報は、イニシャルなどであってもよい。
In addition, when the masked portion of the converted image is a person's face, the server-
なお、上記においては、サーバ側制御部70は、位置や時刻に基づいてセキュリティが確保されていないと判断できる場合に、変換画像を表示する例について説明したが、これに限られるものではない。例えば、セキュリティが確保されていない場合には、画像データ、変換画像データのいずれも表示しないようにしてもよい。また、セキュリティの確保度合に応じて、画像データ、変換画像データのいずれかを表示したり、あるいはいずれの画像データも表示しないようにすることとしてもよい。
In the above description, an example in which the server-
なお、変換画像データを生成・表示するか否かの判断は、上記に限られるものではなく、例えば、サーバ側制御部70は、画像を取得した位置や時刻、画像を表示する位置や時刻、画像に表示されている人物、人物の表情などの要素を数値化し、各要素の合計値に基づいて、変換画像データを生成・表示するか否かの判断を行うこととしてもよい。また、サーバ側制御部70は、各要素を重み付けし、重み付け後の各要素の合計値に基づいて、変換画像データを生成・表示するか否かの判断を行うこととしてもよい。
The determination as to whether or not to generate / display the converted image data is not limited to the above. For example, the server-
次に、携帯型端末10及びサーバ50で取得するデータの消去処理について、図26、図27に基づいて説明する。
Next, the erasing process of data acquired by the
(データの消去処理(その1:変換データ(テキストデータ)の消去))
図26には、携帯型端末10がサーバ50側から取得した情報を消去する処理がフローチャートにて示されている。この図26に示すように、端末側制御部30は、ステップS260において、データ取得から一定時間(例えば2〜3時間)経過したか否かを判断する。ここでの判断が肯定された場合には、ステップS262に移行し、端末側制御部30は、フラッシュメモリ28に記憶されているテキストデータ(変換前のワード及び変換後のワードを含む)を消去する。一方、ステップS260の判断が否定された場合でも、端末側制御部30は、ステップS264においてユーザが会社内から社外に移動したか否かを判断する。そして、ここでの判断が肯定された場合には、ステップS262に移行して、上記と同様にデータを消去する。なお、ステップS264の判断が否定された場合には、ステップS260に戻る。このように、データを取得してから所定時間経過した場合、又はセキュリティが確保できなくなった場合に、データを消去することで、重要なデータの流出等を防止することができる。なお、上記においては、テキストデータのすべてを消去する場合について説明したが、これに限らず、ステップS262では、最重要のデータのみを消去することとしても良い。例えば、領域Aのデータと領域Oのデータのみを消去することとしても良い。
(Data erasure process (Part 1: Elimination of conversion data (text data)))
FIG. 26 is a flowchart showing a process for deleting information acquired by the portable terminal 10 from the server 50 side. As shown in FIG. 26, the terminal-
なお、図26の処理では、ユーザ(携帯型端末10)が初めから会社外に存在しているときには、変換データを表示部14上に表示した直後に、フラッシュメモリ28から消去することとしても良い。
In the process of FIG. 26, when the user (portable terminal 10) has been outside the company from the beginning, the converted data may be erased from the
(データの消去処理(その2:音声データの消去))
サーバ側制御部70では、各音声データに対して、図27の消去処理を実行する。サーバ側制御部70は、図27のステップS270において、テキストデータ生成部54が音声データをテキストデータに変換したか(できたか)否かを判断する。ここでの判断が否定された場合には、ステップS280に移行するが、判断が肯定された場合には、ステップS272に移行し、サーバ側制御部70は、音声データを発声した人物名を取得する。ここでは、サーバ側制御部70は、声紋分析部55から、発声した人物名を取得し、ステップS274に移行する。
(Data erasure process (part 2: audio data erasure))
The server-
ステップS274では、サーバ側制御部70は、発声した人物がユーザ自身以外であるか否かを判断する。ここでの判断が肯定された場合には、サーバ側制御部70は、ステップS276において、テキストデータに変換された音声データを消去する。一方、ステップS274の判断が否定された場合、すなわち、ユーザ自身の音声データであった場合には、ステップS278に移行して、所定時間経過後に音声データを消去し、図27の全処理を終了する。
In step S274, the server-
一方、ステップS270の判断が否定されてステップS280に移行した場合には、サーバ側制御部70は、音声データを再生可能にする。具体的には、サーバ側制御部70は、携帯型端末10のフラッシュメモリ28に対して音声データを送信する。なお、このステップS280では、音声データがテキストデータに変換できなかったことを、警告部18を介して、ユーザに警告する。この警告に基づいて、ユーザが、ユーザが携帯型端末10の入力部12から音声データを再生する指示を入力した場合、フラッシュメモリ28に格納された音声データを再生部16を介して再生する。
On the other hand, if the determination in step S270 is negative and the process proceeds to step S280, the server-
次いで、ステップS282では、サーバ側制御部70が、フラッシュメモリ28に送信した音声データ(すなわち再生部16において再生された音声データ)を消去し、図27の全処理を終了する。
Next, in step S282, the server-
以上のようにして音声データの消去処理を実行することにより、サーバ50における音声データの保存量を減らすことができるので、サーバ50のフラッシュメモリ64の記憶容量を低減することが可能である。また、ユーザ以外の音声データを、テキストデータ化した直後に消去することで、プライバシーに対して配慮することもできる。なお、本実施形態では、サーバ50内に音声合成部を設けておけば、たとえ音声データを消去したとしても、音声合成部の機能により、フラッシュメモリ64に記憶されているテキストデータから音声を再現することができる。
By executing the audio data erasing process as described above, the storage amount of the audio data in the server 50 can be reduced, so that the storage capacity of the
(データの消去処理(その3:画像データの消去))
画像データ(元画像データ及び変換画像データを含む)は、例えば、データ取得から所定時間経過した後に、サーバ側制御部70が、フラッシュメモリ64上から消去する。ただし、これに限らず、例えば、テキストデータと同様のロジックで消去することとしても良い。
(Data deletion process (3: Image data deletion))
The image data (including the original image data and the converted image data) is deleted from the
(データの消去処理(その4:タスクの消去))
サーバ側制御部70では、以下に示すルールに従って、タスクを消去する。
(1)タスクが社外での会議に関するものである場合
この場合、位置検出部22が検出する現在位置がタスクで特定されている会議開催場所と一致し、かつ時刻検出部24の検出する現在時刻がタスクで規定されている会議開始時刻を過ぎた場合に、タスクを消去する。なお、現在時刻が会議開始時刻を過ぎているのに、現在位置が会議開催場所と一致していない場合には、サーバ側制御部70は、端末側制御部30を介して、警告部18からユーザに対して警告を発するようにする。これにより、タスクの実行し忘れを抑制することができる。また、これに限らず、例えば、タスクの所定時間前(30分前など)に、警告を発するようにしても良い。これにより、タスクの実行し忘れを未然に防止することができる。
(2)タスクが社内での会議に関するものである場合
この場合、位置検出部22としてRFIDのように会議室に入ったことを検出できるような位置検出部を採用しておき、位置検出部22が検出する現在位置がタスクで特定されている会議室と一致し、かつ時刻検出部24の検出する現在時刻がタスクで規定されている会議開始時刻を過ぎた場合に、タスクを消去する。この場合にも、上記(1)のように警告を併用することができる。
(3)タスクが買い物に関するものであり、買い物をする場所が特定されている場合
この場合、位置検出部22が検出する現在位置がタスクで特定されている場所と一致し、かつ、「ありがとうございました」などの音声が音声入力部42から入力されたり、あるいはPOSレジ端末から購入情報が入力部12に無線等で入力された場合に、タスクを消去する。なお、POSレジ端末からの入力以外に、例えば、携帯型端末が電子マネー機能を有している場合には、当該機能により支払いを済ませた段階で、タスクを消去することとしても良い。また、画像入力部43が首からぶら下げたり、耳元にとりつけたりするようなライフログカメラの場合には、ライフログカメラの撮像結果に基づいてタスクを消去するようにしてもよい。
(4)その他、タスクにおいて時間が特定されている場合
この場合、時刻検出部24の検出する現在時刻が、タスクで規定されている実施時刻を過ぎた場合に、タスクを消去する。
(Data deletion process (part 4: task deletion))
The server-
(1) When the task is related to a meeting outside the company In this case, the current position detected by the
(2) When the task is related to an in-house meeting In this case, a position detection unit that can detect that the user has entered the conference room, such as RFID, is adopted as the
(3) When the task is related to shopping and the place to shop is specified In this case, the current position detected by the
(4) In addition, when the time is specified in the task In this case, the task is deleted when the current time detected by the
以上、詳細に説明したように、本実施形態によると、通信部52が、画像、位置情報、時刻情報を入力し、サーバ側制御部70は、ユーザからの画像の出力指示(表示指示)があったときに、位置又は時刻に基づいて、画像の表示に制限を加えるか否かを判断する。これにより、位置や時刻に応じた画像の表示制限(マスキング処理:モザイク処理や解像度の調整など)を行うことが可能となる。また、本実施形態では、例えば、通信部52が入力する位置情報や時刻情報が、画像が撮影された位置や時刻の情報である場合には、サーバ側制御部70は、画像が撮影された位置や時刻から、画像の少なくとも一部が守秘性を有する可能性が高いと判断できる場合に、画像の表示に制限を加えると判断するなどすることができる。また、例えば、通信部52が入力する位置情報や時刻情報が、画像を閲覧する位置や時刻の情報である場合には、サーバ側制御部70は、当該情報から画像が閲覧される場所を推定し、当該場所に応じた表示に制限を画像に加えると判断するなどすることができる。このように、サーバ側制御部70が、位置情報や時刻情報に基づいて画像の表示制限を行うか否かを判断することで、画像からの情報漏洩の防止、プライバシーの保護等が図られ、使い勝手を向上することが可能となる。
As described above in detail, according to the present embodiment, the
また、本実施形態では、サーバ側制御部70は、画像表示に制限を加えると判断したときに、画像の少なくとも一部に制限を施すこととしているので、例えば、会議中の画像であれば、画像のうちの人物の顔部分の表示を制限したり、あるいは、画像のうちの文字部分(ホワイトボードや黒板に書かれた文字、スクリーンに映し出された文字など)の表示を制限したりすることができる。これにより、位置情報や時刻情報によって表示制限すべき部分が異なる画像を表示する場合であっても、適切な表示制限(画像の内容が分かる程度に守秘性のある部分を隠すなどの表示制限)が可能となる。
In the present embodiment, the server-
また、本実施形態では、サーバ側制御部70は、セキュリティが確保されている場所からセキュリティが確保されていない場所に変化したことを位置情報から判別したときに、画像の少なくとも一部に制限を施すこととする。したがって、セキュリティが確保されている場所から確保されていない場所に移動したときに、ユーザは、これに対応して画像の閲覧方法を変更する(例えば、堂々と画像を閲覧していた状態から周囲を気にしながら画像を閲覧する状態に変更する)などしなくても、画像を閲覧することが可能となる。
Further, in this embodiment, the server-
また、本実施形態では、サーバ側制御部70は、位置情報及び時刻情報の少なくとも一方の情報に基づいて、画像中において表示制限を加える箇所を特定するので、位置情報や時刻情報に応じて適切な表示制限(画像の内容が分かる程度に守秘性のある部分を隠すなどの表示制限)が可能となる。
Further, in the present embodiment, the server-
また、本実施形態では、顔認識部53が、画像中の被写体の情報をサーバ側制御部70に対して入力し、サーバ側制御部70は、当該情報に基づいて、画像中において表示制限を加える箇所を特定する。これにより、被写体のうち、守秘性を有する人物を隠すように、表示制限を加えることができる。また、被写体のうち、守秘性を有する文字を隠すように、表示制限を加えることもできる。
In the present embodiment, the
また、本実施形態では、サーバ側制御部70は、顔認識部53がサーバ側制御部70に対して入力した被写体の情報を、画像とともに表示するので、画像に対して顔を隠すように表示制限を加えた場合でも、被写体の情報(例えば、人物名など)を表示することとすることで、ユーザは、表示制限が加えられた人物を容易に把握することが可能となる。
In the present embodiment, the server-
また、本実施形態では、サーバ側制御部70は、被写体の情報を、所定のルールに基づいて変換して、画像とともに表示する。これにより、画像とともに、例えば人物名の変換後の情報(イニシャル等)が表示されることとなるので、人物名の秘匿化も可能となる。
In the present embodiment, the server-
また、本実施形態では、サーバ側制御部70は、画像の人物の表情の情報に基づいて、画像の出力に制限を加えるか否かを判断することができる。すなわち、画像の人物の表情が硬い場合には、守秘性を有する可能性が高いので、当該画像に表示制限を加えると判断し、画像の人物の表情が柔らかい場合には、守秘性を有する可能性が低いので、当該画像に表示制限を加えないと判断するなどすることができる。これにより、適切な画像表示制限が可能となる。
In the present embodiment, the server-
また、本実施形態では、通信部52から、音声データ及びテキストデータの少なくとも一方が入力された場合、サーバ側制御部70は、位置情報及び時刻情報の少なくとも一方に基づいて、音声データ及びテキストデータの少なくとも一方の出力に制限を加える。これにより、音声データやテキストデータにおいても、画像と同様、守秘性を有する部分(ワード)の出力に制限を加えることで、セキュリティ保護やプライバシー保護を図ることができる。
In this embodiment, when at least one of voice data and text data is input from the
この場合、本実施形態では、サーバ側制御部70が、音声データの出力に制限が必要と判断した場合、音声データから変換・生成されたテキストデータを出力するので、音声データの出力制限が必要な場合でも、音声データの内容をテキストデータにて確認することができる。
In this case, in the present embodiment, when the server-
また、本実施形態では、サーバ側制御部70が、音声データに出力の制限が必要と判断した場合、音声データ及びテキストデータの少なくとも一方の特定の名詞を他の名詞に変換して出力するので、特定の名詞を、特定の人にとっては理解できる名詞に変換するなどすることで、特定の人が音声データやテキストデータの内容を認識できるようにしつつ、セキュリティ保護やプライバシー保護を図ることができる。
Further, in the present embodiment, when the server-
また、本実施形態では、表示部14を有する第1筐体11と、サーバ側制御部70を有する第2筐体51と、を有しており、第1筐体11と第2筐体51とが分離しているので、第1筐体11側を携帯端末とし、第2筐体51側をサーバとすることで、携帯端末にサーバ側制御部70などの機能を持たせる場合と比較して、携帯端末を小型・軽量化することが可能となる。
Moreover, in this embodiment, it has the 1st housing | casing 11 which has the
また、本実施形態では、第1筐体11に、第1筐体11の位置情報を検出する位置検出部22を設け、通信部52は、位置検出部22による検出結果を入力する。これにより、第1筐体11の位置に応じた画像表示制限等を行うことが可能となる。
In the present embodiment, the
また、本実施形態によると、情報が入力される通信部52と、通信部52に入力されたデータから所定のキーワードを抽出する抽出部58と、抽出部58により抽出したキーワードを守秘性レベルが「高」のキーワードと守秘性レベルが「中」のキーワードとに分類する分類部60と、守秘性レベルが「高」のキーワードを所定の変換方法で変換するとともに、守秘性レベルが「中」のキーワードを守秘性レベルが「高」のキーワードとは異なる変換方法で変換する変換部62と、を備えている。このように、守秘性レベルに応じてキーワードを分類し、それぞれのレベルに応じて異なる変換を行うことで、守秘性レベルを考慮したデータの表示等を行うことが可能となる。これにより、使い勝手の向上を図ることが可能となる。
According to the present embodiment, the confidentiality level of the
また、サーバ側制御部70は、音声データには守秘性のあるキーワードが含まれていない場合でも、画像データに守秘性やプライバシーの問題があるときには、携帯型端末10の表示部14へのその画像データの表示を禁止もしくはマスキング処理するとともに、テキストデータや音声データの再生を禁止したり、制限をかけるようにしてもよい。
In addition, even if the voice data does not contain a confidential keyword, the server-
また、本実施形態では、携帯型端末10と通信する通信部52が、変換部62で変換した結果を携帯型端末10に送信するため、携帯型端末10では、データの処理を行わなくとも、守秘性レベルが考慮されたデータを表示等することができる。
Moreover, in this embodiment, since the
また、本実施形態では、音声データからテキストデータを生成するテキストデータ生成部54を備えており、抽出部58は、テキストデータ生成部54で生成したテキストデータからキーワードを抽出することとしているので、キーワードの抽出を簡易に行うことができる。
In the present embodiment, the text data generation unit 54 that generates text data from voice data is provided, and the
また、本実施形態では、キーワードをイニシャル変換することとしているので、キーワードごとに特別な変換テーブルを作成しなくても、各キーワードを簡易に変換することができる。また、キーワードが氏名の場合、守秘性レベルが「高」であれば、氏と名の両方をイニシャルに変換し、守秘性レベルが「中」であれば、氏と名のいずれか一方をイニシャルに変換することとしているので、守秘性レベルに応じた表示を行うことが可能となる。更に、キーワードが地名の場合、守秘性レベルが「高」であれば、所定の区域の情報(広い範囲内での位置情報)に変換し、守秘性レベルが「中」であれば、所定の区域よりも狭い区域の情報(狭い範囲内での位置情報)に変換することとしているので、この点からも、守秘性レベルに応じた表示を行うことが可能となる。 Further, in the present embodiment, since the keywords are initially converted, each keyword can be easily converted without creating a special conversion table for each keyword. Also, if the keyword is a full name, if the confidentiality level is “High”, both the full name and the name are converted to initials, and if the confidentiality level is “Medium”, either the full name or the first name is converted to the initial. Therefore, display according to the confidentiality level can be performed. Further, when the keyword is a place name, if the confidentiality level is “high”, it is converted into information of a predetermined area (position information within a wide range), and if the confidentiality level is “medium”, Since the information is converted into information of an area narrower than the area (position information within a narrow range), display according to the confidentiality level can also be performed from this point.
また、本実施形態では、位置情報を検出する位置検出部22と、入力を行う入力部12と、入力に関連した情報を表示する表示部14と、位置検出部22が検出した位置に応じて、表示部14への表示を制限する端末側制御部30と、を備えている。このように、位置に応じた表示制限を行うことにより、セキュリティを考慮した表示を行うことができ、ひいては使い勝手の向上を図ることが可能となる。
In the present embodiment, the
また、本実施形態では、端末側制御部30は、位置検出部22の出力に基づいてセキュリティが保たれないと判断した際に、表示部14への表示を制限することから、セキュリティを適切に考慮した表示制限を行うことができる。また、本実施形態では、位置検出部22の出力に基づいてセキュリティが保たれると判断した際に、表示部14への表示の制限の少なくとも一部を解除するので、この点からも、セキュリティを適切に考慮した表示制限を行うことができる。
Moreover, in this embodiment, when the terminal
また、本実施形態のパーソナルアシスタントシステム100が、上記のようにセキュリティを考慮した表示制限を行う携帯型端末10と、携帯型端末10から入力されたデータの少なくとも一部に表示制限を加えるサーバ50と、を備えているので、携帯型端末10で、データの少なくとも一部に表示制限を加えなくても、携帯型端末10の表示部14に表示制限が加えられたデータを表示することができる。これにより、携帯型端末10での処理負担を軽減することができ、結果的に携帯型端末10の簡素化、及び小型・軽量化等を図ることが可能となる。
In addition, the
また、本実施形態では、テキストデータを表示する表示部14と、音声を入力する音声入力部42と、音声の解析結果に応じて前記音声に関連する情報を前記表示部に表示させる端末側制御部30と、を有しているので、図4のステップS100のように、ある人が、例えば「おはよう」などの声を発したときに、その人の情報(名前や、その他登録されている情報、あるいはその人に対して行うべきタスクなど)を表示部14に表示することができる。これにより、ユーザは、声を発した人を忘れてしまっていた場合でも、表示部14を見ることで、その人を思い出すことが可能となる。このように、本実施形態によれば、使い勝手の良いパーソナルアシスタントシステム100及び携帯型端末10を提供することができる。この場合、音声の声紋を分析する声紋分析部55の分析結果を利用することで、適切な表示が可能となる。
Moreover, in this embodiment, the
また、本実施形態では、端末側制御部30及びサーバ側制御部70は、声紋分析部55の分析結果に応じて音声データに含まれる所定のワード(例えば、「あの件」や「北海道の件」など)に関連する情報を、表示部14に表示させるので、「あの件」や「北海道の件」などの曖昧な問いかけをされた場合でも、表示部14を確認することで、当該用件を思い出すことが可能となる。本実施形態では、この点からも、使い勝手の良いパーソナルアシスタントシステム100及び携帯型端末10を提供することができるといえる。また、本実施形態では、所定のワード(「北海道の件」など)に関連する情報を、所定のワード(例えば「北海道」などのワード)とともに入力部に入力された頻度に応じて選択し、表示部14に表示する(図4のステップS104)ので、適切な情報表示が可能となる。
Further, in the present embodiment, the terminal-
また、図4のステップS104では、音声データが入力されたときの位置に応じた情報を表示部14に表示させるようにもしているので、この点からも適切な情報表示が可能である。
Further, in step S104 in FIG. 4, information corresponding to the position when the voice data is input is displayed on the
また、図4のステップS104では、音声データが入力された時刻に応じた情報(音声データが入力された時刻から所定時間内に入力された情報など)を表示部14に表示させるようにもしているので、この点からも適切な情報表示が可能である。
Further, in step S104 in FIG. 4, information corresponding to the time when the voice data is input (such as information input within a predetermined time from the time when the voice data is input) is displayed on the
また、本実施形態では、音声を入力する音声入力部42と、音声入力部42に入力した音声データに基づいてテキストデータを生成するテキストデータ生成部54と、音声入力部42に入力した音声データの声紋データを分析する声紋分析部55と、声紋分析部55による分析結果に応じてテキストデータ生成部54によりテキストデータが生成された後の音声データを消去する消去部76と、を備えている。これにより、テキストデータが生成された後の音声データを消去することで、フラッシュメモリ64に必要な記憶容量を低減することができる。また、本実施形態では、声紋分析部55による分析結果に応じて音声データを消去するため、ある特定人物の音声データを消去することにより、プライバシーに配慮した良好な使い勝手を実現することが可能となる。
In the present embodiment, the
また、本実施形態では、情報が入力される通信部52と、通信部52に入力されたデータから所定のキーワードを抽出する抽出部58と、抽出部58により抽出したキーワードを守秘性レベルが「高」のキーワードと守秘性レベルが「中」のキーワードとに分類する分類部60と、守秘性レベルが「高」のキーワードを所定の変換方法で変換するとともに、守秘性レベルが「中」のキーワードを守秘性レベルが「高」のキーワードとは異なる変換方法で変換する変換部62と、を備えている。このように、守秘性レベルに応じてキーワードを分類し、それぞれのレベルに応じて異なる変換を行うことで、守秘性レベルを考慮したデータの表示等を行うことが可能となる。
In this embodiment, the confidentiality level of the
また、本実施形態では、声紋分析部55は、音声データの声紋データが、登録されたユーザの声紋データであるか否かを解析し、消去部76は、ユーザ以外の音声を消去するので、フラッシュメモリ64の記憶可能な記憶容量を効果的に低減するとともに、プライバシーへの配慮をより高めることができる。
In this embodiment, the
また、本実施形態では、消去部76は、ユーザの音声とユーザ以外の音声とで、分析後、消去するまでの時間を異ならせている(ステップS276、S278)。これにより、ユーザの音声も所定時間後に消去するので、記憶容量の低減を更に図ることができる。
Further, in the present embodiment, the
また、本実施形態では、テキストデータ生成部54が音声データからテキストデータを生成できない場合に、警告部18が警告を発するので、ユーザは、音声データからテキストデータを生成できなかったことを認識することができる。また、テキストデータ生成部54が音声データからテキストデータを生成できなかった場合(ステップS270が否定された場合)に、ユーザの指示に応じて、再生部16が音声データを再生するため、ユーザは、テキストデータにできなかった内容を音声データの再生で確認することができる。
In the present embodiment, when the text data generation unit 54 cannot generate text data from the voice data, the
また、本実施形態によると、表示を行う表示部14と、音声を入力する音声入力部42と、前記入力した音声の大きさ、周波数および意味の少なくとも1つに基づいて重み付けを行う重み付け部56と、音声入力部42が入力した音声と、重み付け部56の重み付けとに基づいて、表示部におけるタスクの表示態様を変更する制御部70、30と、を備えている。これにより、音声データの入力され方や音声データの内容等に応じて重み付け部56が行った重み付けに基づいて、表示部14におけるタスクの表示態様を変更するので、音声データの重み(重要度)に応じた表示態様を実現できる。これにより、使い勝手の向上を図ることが可能である。
Further, according to the present embodiment, the
また、本実施形態によると、重み付け部56は、少なくとも音声データの周波数を用いて、音声を発した人を特定し、当該人(本実施形態では役職)に応じた重み付けを行うこととしているので、音声データの重要度に関する適切な重み付けを行うことができる。
Further, according to the present embodiment, the
また、本実施形態によると、重み付け部56は、音声の意味に基づく守秘性に応じた重み付けを行うこととしているので、この点からも、音声データの重要度に関する適切な重み付けを行うことができる。
In addition, according to the present embodiment, the
また、本実施形態では、音声入力部42から入力された音声に日付情報が含まれている場合に、該日付情報に基づいてタスクの表示を行うこともできるため、通常の予定表としての機能も満足することができる。また、本実施形態では、時刻検出部24において検出される時刻に関する情報を考慮して、又はカレンダ部26の日付情報を考慮して、タスクの表示を行うため、現在の時刻に近い順又は現在の時刻から遠い順などの順番で、行うべきタスクを表示することが可能となる。
In the present embodiment, when date information is included in the voice input from the
また、本実施形態では、音声入力部42から入力された音声をテキストデータに変換するテキストデータ生成部54を備えているので、重み付け部56は、テキストデータに対する重み付けを行うことができる。これにより、音声データを扱う場合よりも簡易に重み付けを行うことができる。
In this embodiment, since the text data generation unit 54 that converts the voice input from the
また、本実施形態では、表示順序や、色、表示サイズ、表示フォントなどを重み付け結果に基づいて変更するので、重み付け結果を様々な方法で表現することができる。 In this embodiment, since the display order, color, display size, display font, and the like are changed based on the weighting result, the weighting result can be expressed by various methods.
また、本実施形態では、位置を検出する位置検出部22の出力に応じて、表示部への表示態様を変更する、すなわち、現在位置に基づいて、タスクを実行したと判断されるような場合に、そのタスクを表示しない(削除する)ようにすることとしているので、記憶容量の低減を図ることが可能である。
In the present embodiment, the display mode on the display unit is changed according to the output of the
更に、本実施形態では、音声データに定型ワードが含まれているか否かに基づいて、タスクか否かを判断し、この判断結果を用いて、表示部14への表示をするか否かを決定するので、タスクか否かを自動的に判別することができるとともに、表示部への表示を行うか否かも自動的に決定することができる。
Further, in the present embodiment, it is determined whether or not the task is a task based on whether or not the fixed word is included in the audio data, and whether or not to display on the
また、本実施形態では、重み付けをユーザが設定することを可能にするために、サーバ50に設定部74が設けられているので、ユーザは、自己の好みに応じた重み付けに関する設定を行うことが可能である。
In the present embodiment, since the setting
また、本実施形態によると、音声を入力する音声入力部42と、入力した音声をテキストデータに変換するテキストデータ生成部54と、音声入力部42が特定の周波数を入力した際に、テキストデータ生成部54による変換を開始、すなわち録音を開始し、テキストデータへの変換を開始するサーバ側制御部70と、を備えている。したがって、ある人物が発声して、特定の周波数の音声が入力された場合に、その音声の入力に基づいて、録音、テキストデータへの変換を開始するので(図2(a)参照)、自動で、録音、テキストデータへの変換を開始することができる。これにより、ユーザの操作が簡素化され、使い勝手の向上を図ることが可能となる。
Further, according to the present embodiment, the
また、本実施形態では、音声入力部42が電話に関連した周波数を入力した際にテキストデータへの変換を開始することもできるため、例えば、電話の着信音がなった時点から、電話の音声を録音し、テキストデータへの変換を行うことが可能となる。これにより、電話での会話を漏らすことなく録音、テキストデータへの変換をすることができる。
Further, in this embodiment, since the
また、本実施形態では、タスクに基づいて、例えば会議の日時になったときなどの適切なタイミングで録音やテキストデータへの変換を開始することができるので、この点からも、ユーザの操作を簡素化することができ、使い勝手を向上することが可能となる。また、例えば会議の終了時刻に応じて録音やテキストデータへの変換を行うこともできるので(図2(c)参照)、会議において最も重要なことが話される可能性がある時間帯の音声データの録音及びテキストデータへの変換を自動的に開始することが可能となる。 Further, in this embodiment, recording and conversion to text data can be started at an appropriate timing based on the task, for example, when the date and time of the meeting is reached. It is possible to simplify and improve usability. In addition, for example, recording or conversion to text data can be performed according to the end time of the conference (see FIG. 2C). Data recording and conversion to text data can be automatically started.
また、本実施形態では、ユーザの生体情報に基づいて、適切なタイミングで録音やテキストデータへの変換を開始することができるので(図2(d)参照)、この点からも、ユーザの操作を簡素化することができ、使い勝手を向上することが可能となる。 Further, in the present embodiment, recording and conversion to text data can be started at an appropriate timing based on the user's biological information (see FIG. 2D). Can be simplified, and usability can be improved.
更に、本実施形態では、現在時刻が、予め定めておいた時刻になったときに、録音やテキストデータへの変換を開始することができるので(図2(b)参照)、この点からも、ユーザの操作を簡素化することができ、使い勝手を向上することが可能となる。 Furthermore, in the present embodiment, recording and conversion to text data can be started when the current time reaches a predetermined time (see FIG. 2B). Thus, the user's operation can be simplified and the usability can be improved.
また、本実施形態では、位置検出部22の検出結果に応じて、テキストデータ生成部54による変換を禁止することができるため、例えば、社外の会議など、録音することに問題があるような場合に、録音を自動的に禁止することができる。これにより、より使い勝手を向上することが可能となる。
Further, in the present embodiment, conversion by the text data generation unit 54 can be prohibited according to the detection result of the
なお、上記実施形態では、ワードごとに、守秘性の高低を決める場合について説明したが、これに限られるものではなく、例えば、分類部60では、ビジネスで用いるワードを守秘性レベルの高いワード、プライベートで用いるワードを守秘性レベルの低いワードというように分類しても良い。
In the above embodiment, the case where the level of confidentiality is determined for each word has been described. However, the present invention is not limited to this. For example, in the
なお、上記実施形態では、携帯型端末10の位置検出部22で検出された現在位置が、セキュリティが保たれない位置であったときに、キーワードを変換して表示する場合、すなわち、表示部14における表示が制限される場合について説明したが、これに限られるものではない。例えば、時刻検出部24において検出された時刻が所定時刻(例えば勤務時間内)であった場合に、表示部14における表示が制限されるようにしても良い。このようにしても、上記実施形態と同様、セキュリティを考慮した表示を行うことが可能となる。なお、このような制御を行う場合には、図19のステップS206において、ユーザの現在位置を取得する代わりに、現在時刻を取得し、ステップS208においてセキュリティ確保可能な場所か否かを判断する代わりに、セキュリティ確保可能な時刻か否かを判断するようにすれば良い。
In the above embodiment, when the current position detected by the
なお、上記実施形態では、音声データがタスクか否かの判定を、日時情報の有無、及び音声データの語尾の種類に基づいて行うこととしたが、これに限らず、例えば、音声データの抑揚に基づいて、タスク判定を行うこととしても良い。 In the above embodiment, whether or not the voice data is a task is determined based on the presence / absence of date / time information and the type of ending of the voice data. However, the present invention is not limited to this. Based on the above, task determination may be performed.
なお、上記実施形態では、守秘性レベル「高」のワード及び「中」のワードを、その上位概念であるイニシャルに変換する場合について説明したが、これに限られるものではない。例えば、キーワードDBにおいて、各ワードに対する変換後のワードを定義しておいても良い。この場合、例えば、キーワード「カメラ」に対する変換後のワードとして、カメラの上位概念である「精密機器」やそれよりも下位概念である「撮影装置」などを定義しておくことができる。この場合、「カメラ」が守秘性レベル「高」であれば、「精密機器」と変換し、「カメラ」が守秘性レベル「中」であれば、「撮影装置」と変換するなどすることができる。このように、守秘性レベルに応じて、上位概念のワードと中位概念のワードに変換することで、セキュリティレベルを考慮した表示を行うことができる。また、キーワードDBにおいて、予算などの金額情報が登録される場合、当該金額情報の上位概念である桁数で表現したものを定義しておいても良い。 In the above-described embodiment, the case where the word of the confidentiality level “high” and the word of “medium” are converted into the initial, which is a superordinate concept thereof, is not limited to this. For example, a converted word for each word may be defined in the keyword DB. In this case, for example, as a word after conversion for the keyword “camera”, it is possible to define “precise equipment” that is a superordinate concept of the camera, “imaging device” that is a subordinate concept. In this case, if “camera” is confidentiality level “high”, it is converted to “precision equipment”, and if “camera” is confidentiality level “medium”, it may be converted to “photographing device”. it can. In this way, display in consideration of the security level can be performed by converting the word into a higher concept word and a middle concept word according to the confidentiality level. Further, when money amount information such as a budget is registered in the keyword DB, a value expressed by the number of digits that is a superordinate concept of the money amount information may be defined.
なお、上記実施形態では、音声が日本語の場合について説明したが、例えば英語などの外国語であっても良い。外国語(例えば、英語)では、所定の単語の有無や、所定の構文の有無に基づいてタスクか否かを判断することとしても良い。 In the above embodiment, the case where the voice is Japanese has been described, but a foreign language such as English may be used. In a foreign language (for example, English), it may be determined whether the task is based on the presence or absence of a predetermined word or the presence or absence of a predetermined syntax.
なお、上記実施形態では、携帯型端末10の小型・軽量化を図るため、フラッシュメモリ28を搭載する場合について説明したが、これとともに又はこれに代えて、ハードディスクなどの記憶装置を携帯型端末10に搭載することとしても良い。
In the above embodiment, the case where the
なお、上記実施形態では、会社の位置などの設定を行う際に、携帯型端末10を外部のPCに接続し、外部のPC上で設定を行う場合について説明した。しかしながら、これに限られるものではなく、例えば、サーバ50のハードディスク66に予め会社の位置を登録しておき、そのハードディスク66から、会社の位置をダウンロードしても良い。また、例えば携帯型端末10に会社の位置などを設定するためのアプリケーションをインストールしておくことで、携帯型端末10上で、会社の位置などの設定ができるようにしても良い。
In the above-described embodiment, the case where the
なお、上記実施形態では、タスク優先度を上式(1)に基づいて算出することとしたが、これに限らず、その他の式を用いて、タスク優先度を算出しても良い。例えば、各重みを加算したり、あるいは乗算したりするのみでも良い。また、上式(1)などを用いてタスク優先度を求める場合に限らず、重みのうちのいずれかを選択し、その選択された重みの大きい順にタスク優先度を決定しても良い。この場合、どの重みでタスク優先度を決定するかをユーザが設定できるようにしても良い。 In the above embodiment, the task priority is calculated based on the above formula (1). However, the present invention is not limited to this, and the task priority may be calculated using another formula. For example, each weight may be added or simply multiplied. In addition, the task priority may be determined using the above formula (1) or the like, and any of the weights may be selected and the task priority may be determined in descending order of the selected weights. In this case, the user may be allowed to set which weight determines the task priority.
なお、上記実施形態では、キーワードをイニシャル化したもの(例えばソフトウェアにおける「SW」)と、イメージに基づくもの(例えばソフトウェアにおける「スポンジ」)のうち、イニシャル化したものの方を最初に表示する場合について説明したが、これに限らず、イメージに基づくものを最初に表示することとしても良い。また、イニシャル化したものとイメージに基づくものを同時に表示しても良い。 In the above-described embodiment, the initialized keyword out of the keyword initialized (for example, “SW” in software) and the image based (for example, “sponge” in software) is displayed first. Although described, the present invention is not limited to this, and an image-based one may be displayed first. In addition, the initial version and the image-based version may be displayed at the same time.
なお、上記実施形態では、ユーザ以外の人の音声が入力部12に入力されたときに、当該発声者の名前や情報が表示される場合について説明したが、これに限らず、例えば、発声者の顔写真など、発声者に関する画像を表示するようにしても良い。この場合、例えばサーバ50のハードディスク66にそれら画像を格納しておき、かつ当該画像を、キーワードDBの情報の項目に登録しておく必要がある。
In the above embodiment, the case where the name and information of the speaker is displayed when the voice of a person other than the user is input to the
なお、上記実施形態では、重みとして、ユーザとの親密度を用いることとしても良い。この場合、例えば、音声が比較的多く入力される人物や、携帯型端末を持っている人のうち、接近する機会が多い人物などを、親密度の高い人物とすることができる。 In the above embodiment, closeness with the user may be used as the weight. In this case, for example, a person who receives a relatively large amount of voice or a person who has a chance to approach among people who have a portable terminal can be set as a highly intimate person.
なお、上記実施形態で説明した構成は一例である。すなわち、上記実施形態で説明したサーバ50の構成の少なくとも一部を携帯型端末10側に設けることとしても良いし、上記実施形態で説明した携帯型端末10の構成の少なくとも一部をサーバ50側に設けることとしても良い。具体的には、例えば、サーバ50の声紋分析部55やテキストデータ生成部54などを携帯型端末10に持たせることとしてもよい。
The configuration described in the above embodiment is an example. That is, at least a part of the configuration of the server 50 described in the above embodiment may be provided on the
なお、上記実施形態では、本発明をビジネス用として用いる場合を中心に説明したが、プライベートで用いることとしても良いし、あるいは、プライベートとビジネスの両方で用いることとしても勿論良い。 In the above-described embodiment, the case where the present invention is used for business is mainly described. However, it may be used privately, or may be used both privately and for business.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10…携帯型端末、12…入力部、14…表示部、16…再生部、18…警告部、20…生体情報入力部、22…位置検出部、24…時刻検出部、26…カレンダ部、28…フラッシュメモリ、30…端末側制御部、32…通信部、50…サーバ、52…通信部、53…顔認識部、54…テキストデータ生成部、55…声紋分析部、56…重み付け部、58…抽出部、60…分類部、62…変換部、64…フラッシュメモリ、66…ハードディスク、70…サーバ側制御部、72…変更部、74…設定部。
DESCRIPTION OF
Claims (10)
第1画像データを入力する第1入力部と、
前記表示装置の位置情報を入力する第2入力部と、
前記第2入力部が入力した前記表示装置の位置情報に基づいて、前記第1画像データと、前記第1画像データに制限を加えた第2画像データと、のいずれか一方を出力する第1処理部と、を備えた情報処理装置。 An information processing apparatus for processing an image to be displayed on a display device,
A first input unit for inputting first image data;
A second input unit for inputting position information of the display device ;
Based on the position information of the display device input by the second input unit , the first image data and the second image data obtained by limiting the first image data are output. And an information processing apparatus.
前記第1入力部に入力された前記第1画像データを生成した際の情報を入力する第3入力部と、 A third input unit for inputting information when the first image data input to the first input unit is generated;
前記第3入力部が入力した情報に基づいて前記第1画像データに制限を加えた前記第2画像データを生成する第2処理部と、を備え、 A second processing unit that generates the second image data in which the first image data is limited based on information input by the third input unit,
前記第1処理部は、前記第2入力部が入力した前記表示装置の位置情報に基づいて、前記第1画像データと前記第2画像データとのいずれか一方を出力する情報処理装置。 The information processing apparatus, wherein the first processing unit outputs either the first image data or the second image data based on position information of the display device input by the second input unit.
前記第1処理部は、前記第3入力部が入力した情報を所定のルールに基づいて変換する情報処理装置。 The information processing apparatus according to claim 2 ,
The information processing apparatus, wherein the first processing unit converts information input by the third input unit based on a predetermined rule.
前記第3入力部は、位置情報と時刻情報との少なくとも一方の情報を入力し、
前記第1画像データに関する出力指示があったときに、前記第3入力部が入力した情報に基づいて前記第1画像データの出力に制限を加えるか否かを判断する判断部を備える情報処理装置。 The information processing apparatus according to claim 2 or 3 ,
The third input unit inputs at least one of position information and time information,
An information processing apparatus comprising: a determination unit that determines whether to limit the output of the first image data based on information input by the third input unit when an output instruction related to the first image data is given .
前記第3入力部は、
前記第1画像データが撮影された位置の情報、前記第1画像データを出力する位置の情報、前記第1画像データが撮影された時刻の情報、及び前記第1画像データを出力する時刻の情報の少なくとも1つを入力する情報処理装置。 The information processing apparatus according to claim 4 ,
The third input unit includes:
Information on the position at which the first image data was photographed, information on the position at which the first image data was output, information on the time at which the first image data was photographed, and information on the time at which the first image data was output Information processing apparatus for inputting at least one of
前記第1処理部は、前記位置情報及び前記時刻情報の少なくとも一方の情報に基づいて、前記第1画像データにおいて出力制限を加える箇所を特定する情報処理装置。 The information processing apparatus according to claim 4 or 5 ,
The first processing unit is an information processing apparatus that specifies a location to which output restriction is applied in the first image data based on at least one of the position information and the time information.
音声データ及びテキストデータの少なくとも一方を入力する第4入力部を備え、
前記判断部は、前記位置情報及び前記時刻情報の少なくとも一方に基づいて、前記音声データ及び前記テキストデータの少なくとも一方の出力に制限を加えるか否かを判断する情報処理装置。 In the information processing apparatus according to any one of claims 4 to 6 ,
A fourth input unit for inputting at least one of voice data and text data;
The information processing apparatus that determines whether or not to limit the output of at least one of the voice data and the text data based on at least one of the position information and the time information.
前記判断部が前記音声データの出力に制限が必要と判断した場合に、前記音声データから変換及び生成されたテキストデータを出力する第3処理部を備えた情報処理装置。 The information processing apparatus according to claim 7 ,
An information processing apparatus comprising: a third processing unit that outputs text data converted and generated from the audio data when the determination unit determines that the output of the audio data needs to be restricted.
前記判断部が前記音声データに出力の制限が必要と判断した場合に、前記音声データ及び前記テキストデータの少なくとも一方の特定の名詞を他の名詞に変換して出力する第3処理部を備えた情報処理装置。 The information processing apparatus according to claim 7 ,
A third processing unit for converting and outputting at least one specific noun of the voice data and the text data to another noun when the judgment unit judges that output restriction is required for the voice data; Information processing device.
第1画像データを入力する第1入力処理と、
前記表示装置の位置情報を入力する第2入力処理と、
前記第2入力処理において入力した前記表示装置の位置情報に基づいて、前記第1画像データと、前記第1画像データに制限を加えた第2画像データと、のいずれか一方を出力する出力処理と、
を実行させるプログラム。 In a computer that processes images to be displayed on a display device,
A first input process for inputting first image data;
A second input process for inputting positional information of the display device ;
Output processing for outputting one of the first image data and the second image data in which the first image data is limited based on the position information of the display device input in the second input processing When,
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175519A JP6332369B2 (en) | 2016-09-08 | 2016-09-08 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175519A JP6332369B2 (en) | 2016-09-08 | 2016-09-08 | Information processing apparatus and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015096882A Division JP6004039B2 (en) | 2015-05-11 | 2015-05-11 | Information processing device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018088649A Division JP2018156670A (en) | 2018-05-02 | 2018-05-02 | Information processing device and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017037654A JP2017037654A (en) | 2017-02-16 |
JP2017037654A5 JP2017037654A5 (en) | 2017-03-23 |
JP6332369B2 true JP6332369B2 (en) | 2018-05-30 |
Family
ID=58049235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016175519A Active JP6332369B2 (en) | 2016-09-08 | 2016-09-08 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6332369B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018159059A1 (en) | 2017-02-28 | 2018-09-07 | 株式会社ジーシー | Resin base and denture base system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263435A (en) * | 2002-03-11 | 2003-09-19 | Space Tag Inc | Information distribution system and recording medium |
WO2005094064A1 (en) * | 2004-03-29 | 2005-10-06 | Matsushita Electric Industrial Co., Ltd. | Digital image pickup device, display device, rights information server, digital image management system and method using the same |
JP2007041443A (en) * | 2005-08-05 | 2007-02-15 | Advanced Telecommunication Research Institute International | Device, program, and method for speech conversion |
JP4175578B1 (en) * | 2008-02-13 | 2008-11-05 | クオリティ株式会社 | Management system and management program |
JP5178392B2 (en) * | 2008-08-13 | 2013-04-10 | キヤノン株式会社 | Information processing apparatus and information processing apparatus control method |
JP2010044642A (en) * | 2008-08-14 | 2010-02-25 | Fujifilm Corp | Content distribution server and content distribution method |
-
2016
- 2016-09-08 JP JP2016175519A patent/JP6332369B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017037654A (en) | 2017-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240087571A1 (en) | Information processing device | |
JP2012170024A (en) | Information processing apparatus | |
Breazu et al. | A critical multimodal analysis of the Romanian press coverage of camp evictions and deportations of the Roma migrants from France | |
US20180281196A1 (en) | Robot control device and robot control method | |
CN114155860A (en) | Abstract recording method and device, computer equipment and storage medium | |
WO2020240838A1 (en) | Conversation control program, conversation control method, and information processing device | |
JP5577737B2 (en) | Information processing system | |
Kang | Biometric imaginaries: Formatting voice, body, identity to data | |
JP5353750B2 (en) | Information processing device | |
JP6004039B2 (en) | Information processing device | |
JP6332369B2 (en) | Information processing apparatus and program | |
JP2017182075A (en) | Information processing device | |
JP2018156670A (en) | Information processing device and program | |
JP5825387B2 (en) | Electronics | |
JP5869209B2 (en) | Information processing device | |
JP2011170634A (en) | Information processing device | |
JP2011170633A (en) | Portable device and information processing system | |
JP2022168256A (en) | Information processing device | |
JP5348010B2 (en) | Information processing device | |
JP2022169564A (en) | Information processing apparatus and electronic device | |
JP2016122467A (en) | Information processing device | |
JP2015149780A (en) | Information processing unit | |
Karpouzis et al. | Induction, recording and recognition of natural emotions from facial expressions and speech prosody | |
WO2023208090A1 (en) | Method and system for personal identifiable information removal and data processing of human multimedia | |
KR20240137453A (en) | Apparatus for Audio Book Service by Using Artificial Intelligence and Driving Method Thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6332369 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |