JP2020154179A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2020154179A
JP2020154179A JP2019053889A JP2019053889A JP2020154179A JP 2020154179 A JP2020154179 A JP 2020154179A JP 2019053889 A JP2019053889 A JP 2019053889A JP 2019053889 A JP2019053889 A JP 2019053889A JP 2020154179 A JP2020154179 A JP 2020154179A
Authority
JP
Japan
Prior art keywords
information
organ
user
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019053889A
Other languages
English (en)
Inventor
秀仁 五味
Hidehito Gomi
秀仁 五味
昌洋 井上
Masahiro Inoue
昌洋 井上
康恵 國友
Yasue Kunitomo
康恵 國友
章人 田平
Akito Tahira
章人 田平
正太 有地
Shota Yuchi
正太 有地
智彦 大手
Tomohiko Ote
智彦 大手
悠哉 藤田
Yuya Fujita
悠哉 藤田
文紀 安藤
Fuminori Ando
文紀 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2019053889A priority Critical patent/JP2020154179A/ja
Publication of JP2020154179A publication Critical patent/JP2020154179A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】対象ユーザのゲノム情報に基づいて、ユーザの音声器官の特徴を示す器官情報を推定することにより、音声を発することのできないユーザに対するサービスの質を向上する。【解決手段】情報処理システムにおいて、情報処理装置は、取得部30によって教師ユーザのゲノム情報および器官情報を取得し記憶部4に記憶する。生成部31は、教師ユーザの器官情報を教師とし、教師ユーザのゲノム情報を素性とする機械学習によって、音声器官の特徴に関する指標を出力する器官モデルを生成する。推定部32は、取得部30によって取得されたゲノム情報に基づいて、対象ユーザの音声器官の特徴を示す器官情報を推定する。処理部34は、推定部32によって推定された器官情報に基づいて、対象ユーザの音声を生成する音声生成処理を行う。具体的には、処理部34は、推定した器官情報における音声器官の特徴に基づく音声を対象ユーザの音声として生成する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
従来、入力される音声の話者を特定する情報処理装置が知られている。かかる情報処理装置では、話者の音声入力の特徴パラメータを予め機械学習により学習することで器官モデルを生成し、音声を器官モデルに入力して音声特徴を推定することで話者を特定する技術がある(例えば、特許文献1参照)。
特開2003−076390号公報
しかしながら、従来技術は、音声を発することができるユーザに限定したサービスであるため、例えば挿管された人等のような音声を発することができないユーザにとっては有用なサービスとは言えなかった。このため、従来は、サービスの質を向上させる点で改善の余地があった。
本願は、上記に鑑みてなされたものであって、サービスの質を向上させることができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、取得部と、推定部とを備える。前記取得部は、ユーザのゲノム情報を取得する。前記推定部は、前記取得部によって取得された前記ゲノム情報に基づいて、前記ユーザの音声器官の特徴を示す器官情報を推定する。
実施形態の一態様によれば、サービスの質を向上させることができるという効果を奏する。
図1は、実施形態に係る情報処理の一例を示す図である。 図2は、実施形態に係る情報処理システムの構成を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示すブロック図である。 図4は、ユーザ情報の一例を示す図である。 図5は、モデル情報の一例を示す図である。 図6は、実施形態に係る情報処理装置が実行するモデル生成処理の手順を示すフローチャートである。 図7は、実施形態に係る情報処理装置が実行する音声生成処理の手順を示すフローチャートである。 図8は、実施形態に係る情報処理装置が実行する正解音声の登録処理の手順を示すフローチャートである。 図9は、実施形態に係る情報処理装置が実行する認証処理の手順を示すフローチャートである。 図10は、実施形態に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
まず、図1を用いて、実施形態に係る情報処理プログラムにより実現される情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1では、例えば、挿管により音声を発することができないユーザ(以下、対象ユーザと記載する)の音声器官の特徴を示す器官情報を推定する情報処理方法を情報処理装置が実行する場合について説明する。
なお、対象ユーザは、音声を発するユーザであってもよく、情報処理装置に器官情報が登録されていないユーザであればよい。また、図1に示す情報処理では、事前に、音声を発することができるユーザ(以下、教師ユーザと記載する)のゲノム情報および器官情報に基づいて、対象ユーザの器官情報を推定するための器官モデルを生成するモデル生成処理が実行される。
まず、モデル生成処理までの一連の処理について説明する。具体的には、図1に示すように、まず、教師ユーザは、解析機関に対して遺伝解析の解析依頼を行う(S1)。例えば、教師ユーザは、解析依頼時に、唾液や血液等を解析機関へ提供する。
つづいて、解析機関は、教師ユーザから採取した唾液や血液等により遺伝解析を行う(S2)。そして、実施形態に係る情報処理装置は、解析機関から遺伝解析の結果として、教師ユーザのゲノム情報を取得する(S3)。
ゲノム情報には、例えば、ユーザの健康リスクに関する情報や、ユーザの体質、身体的特徴に関する情報等が含まれる。なお、ゲノム情報には、例えば、ユーザの塩基配列やアミノ酸配列等の遺伝暗号に関する情報が含まれてもよい。
なお、情報処理装置は、解析機関からゲノム情報を取得する場合に限らず、ユーザから直接唾液や血液を採取して、遺伝解析を行い、ゲノム情報を取得したり、ユーザがすでに保有しているゲノム情報をユーザから解析機関を経ずに直接取得してもよい。
つづいて、実施形態に係る情報処理装置は、教師ユーザの音声器官の特徴を示す器官情報を取得する(S4)。器官情報は、音声を発したり、調音したりするための身体的特徴である音声器官の形状や大きさ等の情報を含む。音声器官には、例えば、外唇、内唇、歯、歯茎、歯茎後部、硬口蓋前部、硬口蓋、軟口蓋、口蓋垂、咽頭壁、声門、咽頭蓋、舌根、後舌、前舌、舌端、舌尖および舌端裏等がある。
なお、図1では、一の教師ユーザからゲノム情報および器官情報を取得する場合を示しているが、複数の教師ユーザからゲノム情報および器官情報を取得することが好ましい。これにより、後段のモデル生成処理により生成されるモデルの精度を高めることができる。
つづいて、実施形態に係る情報処理装置は、取得したゲノム情報および器官情報を用いてモデル生成処理を実行し、器官情報を推定するためのモデル(以下、器官モデルと記載する)を生成する(S5)。
具体的には、実施形態に係る情報処理装置は、教師ユーザの器官情報を教師とし、教師ユーザのゲノム情報を素性とする機械学習によって、音声器官の特徴に関する指標を出力する器官モデルを生成するモデル生成処理を実行する。なお、器官モデルは、音声器官毎に生成されてもよく、あるいは、すべての音声器官を包括した1つのモデルであってもよい。
次に、対象ユーザの器官情報を推定する一連の処理について説明する。具体的には、まず、対象ユーザは、解析機関に対して遺伝解析の解析依頼を行う(S6)。つづいて、解析機関は、対象ユーザから採取した唾液や血液等により遺伝解析を行う(S7)。そして、実施形態に係る情報処理装置は、解析機関から遺伝解析の結果として、対象ユーザのゲノム情報を取得する(S8)。
つづいて、実施形態に係る情報処理装置は、対象ユーザのゲノム情報に基づいて、対象ユーザの器官情報を推定する推定処理を実行する(S9)。具体的には、実施形態に係る情報処理装置は、取得したゲノム情報を器官モデルに入力して、モデルから出力された指標に基づいて対象ユーザの器官情報を推定する。
なお、実施形態に係る情報処理装置は、推定した器官情報に基づいて、対象ユーザの音声を生成(再現)する音声生成処理を行うことができるが、かかる点については後述する。
また、実施形態に係る情報処理装置は、音声を発することができるユーザについては、例えば、音声入力を受け付け、かかる音声と、推定処理により推定した器官情報に基づく音声とを照合することで、音声を入力したユーザが本人であるか否かの認証処理を行うことができるが、かかる点についても後述する。
このように、実施形態に係る情報処理装置は、ゲノム情報に基づいてユーザの器官情報を推定することで、例えば、音声を発することができない対象ユーザにとって有用なサービスを提供できる。従って、実施形態に係る情報処理装置によれば、サービスの質を向上させることができる。
次に、図2を用いて、実施形態に係る情報処理システムのシステム構成について説明する。図2は、実施形態に係る情報処理システムの構成を示す図である。
図2に示すように、実施形態に係る情報処理システムSは、情報処理装置1と、複数の端末装置10−1〜10−nと、機関端末100とを備える。これら情報処理装置1、複数の端末装置10−1〜10−nおよび機関端末100は、ネットワークNを介して有線または無線により互いに通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネットなどのWAN(Wide Area Network)である。端末装置10−1〜10−nは、ユーザU−1〜U−nによって操作される。
以下においては、端末装置10−1〜10−nの各々を区別せずに示す場合、端末装置10と記載し、ユーザU−1〜U−nの各々を区別せずに示す場合、ユーザUと記載する。また、ユーザUには、上記した教師ユーザおよび対象ユーザが含まれる。
端末装置10は、ユーザUの端末装置であり、スマートフォン、タブレット型端末、PDA(Personal Digital Assistant)、パーソナルコンピュータなどのスマートデバイス(通信端末)である。端末装置10は、ブラウザや、各種のアプリケーション等が実行可能である。
端末装置10は、ブラウザやアプリケーションから、機関端末100にネットワークNを介してアクセスして、遺伝解析の解析依頼を行う。また、端末装置10は、例えば、マイク等を備え、ユーザUが発する音声を集音して得た音声情報や、器官情報等を情報処理装置1へ送信することができる。
機関端末100は、遺伝解析を行う解析機関が所有する端末装置である。機関端末100は、ネットワークNを介して、端末装置10からユーザUの解析依頼を受け付けたり、遺伝解析の結果であるゲノム情報を情報処理装置1へ送信したりする。
なお、図2では、端末装置10および情報処理装置1を別体で構成する場合を示したが、例えば、端末装置10および情報処理装置1を一体で構成し、情報処理装置1の各処理を端末装置10が実行してもよい。
次に、図3を用いて、実施形態に係る情報処理装置1の構成について説明する。図3は、実施形態に係る情報処理装置1の構成例を示すブロック図である。
図3に示すように、情報処理装置1は、通信部2と、制御部3と、記憶部4とを備える。
通信部2は、たとえば、NIC(Network Interface Card)等によって実現される。通信部2は、ネットワークNと有線または無線で接続され、ネットワークNを介して、端末装置10や機関端末100との間で情報の送受信を行う。
記憶部4は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部4は、ユーザ情報40と、モデル情報41とを記憶する。
ユーザ情報40は、ユーザUの情報であるユーザ情報を含む。図4は、ユーザ情報の一例を示す図である。ユーザ情報は、例えば、ゲノム情報や器官情報の取得時に生成される。
図4に示すように、ユーザ情報には、「ユーザID」、「属性」、「ゲノム情報」および「器官情報」といった項目を含む。
「ユーザID」は、ユーザUを識別する識別情報である。「属性」は、ユーザUの属性に関する情報であり、例えば、デモグラフィック属性や、サイコグラフィック属性を含む。「ゲノム情報」は、例えば、ユーザUの唾液等を採取して抽出されるユーザUの遺伝子に関する情報であり、例えば、ユーザUの健康リスクに関する情報や、ユーザUの体質、身体的特徴に関する情報、ユーザUの塩基配列やアミノ酸配列等の遺伝暗号に関する情報が含まれる。なお、ゲノム情報は、他の検査機関で生成されたゲノム情報を含んでもよい。「器官情報」は、ユーザUの音声器官の特徴を示す器官情報であり、各音声器官の形状や大きさ等の情報が含まれる。
次に、モデル情報41は、後述の生成部31によって生成される器官モデルに関する情報である。図5は、モデル情報の一例を示す図である。図5に示すように、モデル情報には、「モデルID」、「音声器官」および「モデル情報」といった項目が含まれる。
「モデルID」は、器官モデルを識別する識別情報である。「音声器官」は、音声器官を示す情報である。「モデル情報」は、音声器官の特徴を示す指標を出力するためのモデルの情報を示す。なお、モデル情報41において、モデルIDで識別される器官モデルは、例えば、性別や、国籍、年齢等によってさらに複数に区分けされてもよく、1つの器官モデルであってもよい。つまり、モデル情報41には、1つ、または、複数の器官モデルが含まれる。
制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置1内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、コントローラであり、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
制御部3は、取得部30と、生成部31と、推定部32と、受付部33と、処理部34とを備える。
取得部30は、ユーザUの各種情報を取得する。取得部30は、例えば、ゲノム情報や、器官情報を取得する。また、取得部30は、ゲノム情報や器官情報を取得したユーザUに関するユーザ情報である属性情報等を取得する。取得部30は、取得したゲノム情報、器官情報および属性情報等をユーザ情報40として記憶部4に記憶する。
生成部31は、取得部30によって取得されたユーザU(教師ユーザ)のゲノム情報および器官情報に基づいて機械学習のモデルを生成する。具体的には、生成部31は、教師ユーザの器官情報を教師とし、教師ユーザのゲノム情報を素性とする機械学習によって、音声器官の特徴に関する指標を出力する器官モデルを生成する。
例えば、生成部31は、機械学習として、ニューラルネットワークを用いる場合、ゲノム情報および器官情報に基づいて、ニューラルネットワークにおける各重みを学習する。
より具体的には、生成部31は、教師ユーザの器官情報を目的変数(教師)とし、ゲノム情報およびユーザ情報から抽出される各特徴情報を説明変数(素性)とする回帰モデルを学習モデルとして求めることができる。
ゲノム情報から抽出される特徴情報には、例えば、ユーザUの音声器官の形状等に関する情報や、ユーザUの音声の周波数特性に関する情報、ユーザUの体格や体質に関する情報等がある。また、ユーザ情報から抽出される特徴情報には、ユーザUの出身地や、過去の居住地、居住期間、年齢、性別等の属性に関する情報等が含まれる。
また、器官モデルから出力される指標には、例えば、音声器官の形状を示すスコアや、音声器官の大きさを示すスコア等が含まれる。なお、生成部31は、上記のスコア毎に器官モデルを生成してもよく、全てのスコアを総合したスコアを出力する1つの器官モデルを生成してもよい。
なお、生成部31が用いる機械学習の学習モデルは、ニューラルネットワークに限定されるものではなく、例えば、SVM(Support Vector Machine)等の他の機械学習の学習モデルを用いてもよい。
また、生成部31は、深層学習(ディープラーニング)の技術を用いて器官モデルを生成することもできる。例えば、生成部31は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて器官モデルを生成することができる。
また、生成部31は、器官モデルを生成後については、器官モデルの更新処理を行う。具体的には、生成部31は、器官モデルを用いて後述の推定部32によって推定された所定のユーザUの器官情報と、取得部30によって取得された当該ユーザUの器官情報との照合結果に基づいて器官モデルを更新する。
例えば、生成部31は、ニューラルネットワークにおける各重みを更新する。具体的には、生成部31は、推定部32によって推定される器官情報と、取得部30によって取得される器官情報との類似度が所定の閾値以上となるように、ニューラルネットワークにおける各重みを更新する。
推定部32は、取得部30によって取得されたゲノム情報に基づいて、ユーザUの音声器官の特徴を示す器官情報を推定する。具体的には、推定部32は、取得部30によって取得されたユーザU(例えば、対象ユーザ)のゲノム情報を器官モデルに入力して、ユーザUの器官情報を推定する。より具体的には、推定部32は、器官モデルから出力される指標に基づく音声器官の特徴を器官情報として推定する。
受付部33は、後述の処理部34が認証処理を行うための音声入力を受け付ける。例えば、受付部33は、端末装置10のマイクを介して集音されたユーザUの音声を音声入力として受け付ける。
処理部34は、推定部32によって推定された器官情報に基づいて、各種処理を実行する。例えば、処理部34は、推定部32によって推定された器官情報に基づいて、ユーザUの音声を生成する音声生成処理を行う。具体的には、処理部34は、推定した器官情報における音声器官の特徴に基づく音声をユーザUの音声として生成する。
また、処理部34は、推定部32によって推定された器官情報を用いて、音声による認証処理を行うこともできる。具体的には、処理部34は、音声生成処理によって生成した音声と、受付部33によって受け付けられた音声とを照合することで、ユーザUが本人であることを認証する認証処理を行う。
より具体的には、処理部34は、まず、推定部32によって推定された器官情報に基づく音声を正解音声として記憶部4に記憶しておく。
そして、処理部34は、ユーザUの認証時に受付部33が受け付けた音声入力と、記憶部4に記憶された正解音声との比較結果に基づき、ユーザU本人であるか否かの認証処理を行う。すなわち、処理部34は、器官モデルに基づく器官情報から生成した音声を認証処理における正解音声として用いる。
あるいは、処理部34は、器官モデルに基づく器官情報から生成した音声を認証処理における音声入力として用いてもよい。具体的には、処理部34は、まず、受付部33が受け付けた音声入力を正解音声として記憶部4に記憶しておく。
そして、処理部34は、ユーザUの認証時にゲノム情報を取得し、かかるゲノム情報を基に推定された器官情報に基づく音声と、記憶部4に記憶された正解音声との比較結果に基づき、ユーザU本人であるか否かの認証処理を行ってもよい。
次に、図6〜図9を用いて、実施形態に係る情報処理装置1が実行する処理の手順について説明する。まず、図6を用いて、モデル生成処理の処理手順について説明する。
図6は、実施形態に係る情報処理装置1が実行するモデル生成処理の手順を示すフローチャートである。図6に示すように、取得部30は、教師ユーザのゲノム情報を取得する(S101)。
つづいて、取得部30は、教師ユーザの器官情報を取得する(S102)。なお、図6において、S101およびS102の処理手順は入れ替わってもよい。
つづいて、生成部31は、教師ユーザの器官情報を教師とし、教師ユーザのゲノム情報を素性とする機械学習によって、音声器官の特徴に関する指標を出力する器官モデルを生成する(S103)。
つづいて、生成部31は、生成した器官モデルをモデル情報41として記憶部4に記憶し(S104)、処理を終了する。
次に、図7を用いて、音声生成処理の処理手順について説明する。図7は、実施形態に係る情報処理装置1が実行する音声生成処理の手順を示すフローチャートである。
図7に示すように、まず、取得部30は、対象ユーザのゲノム情報を取得する(S201)。
つづいて、推定部32は、器官モデルにゲノム情報を入力して、音声器官の特徴を示す指標を出力する(S202)。
つづいて、推定部32は、出力した指標に基づいて、器官情報を推定する(S203)。
つづいて、処理部34は、推定された器官情報に基づいて、対象ユーザの音声を生成する音声生成処理を実行し(S204)、処理を終了する。
次に、図8および図9を用いて、認証処理の処理手順について説明する。図8は、実施形態に係る情報処理装置1が実行する正解音声の登録処理の手順を示すフローチャートである。図9は、実施形態に係る情報処理装置1が実行する認証処理の手順を示すフローチャートである。
図8に示すように、取得部30は、認証処理の対象となるユーザUのゲノム情報を取得する(S301)。
つづいて、推定部32は、器官モデルにゲノム情報を入力して、音声器官の特徴を示す指標を出力する(S302)。
つづいて、推定部32は、出力した指標に基づいて、器官情報を推定する(S303)。
つづいて、推定部32は、推定した器官情報に基づいて、ユーザUの音声を生成する音声生成処理を行う(S304)。
つづいて、推定部32は、生成した音声を正解音声として記憶部4に記憶し(S304)、処理を終了する。
次に、図9に示すように、認証処理において、受付部33は、認証処理の対象となるユーザUの音声入力を受け付けたか否かを判定する(S401)。なお、受付部33は、ユーザUの音声入力を受け付けていない場合(S401:No)、音声入力を受け付けるまでS401を繰り返し実行する。
つづいて、処理部34は、受付部33が受け付けた音声および記憶部4に記憶された正解音声を照合する(S402)。
処理部34は、照合の結果、受付部33が受け付けた音声および正解音声の類似度が所定の閾値以上であるか否かを判定する(S403)。
つづいて、処理部34は、類似度が所定の閾値以上である場合(S403:Yes)、ユーザU本人であると判定し(S404)、処理を終了する。
一方、処理部34は、類似度が所定の閾値未満である場合(S403:No)、ユーザU本人でないと判定し(S405)、処理を終了する。
また、上述してきた実施形態にかかる情報処理装置1は、例えば図10に示すような構成のコンピュータ200によって実現される。図10は、実施形態に係る情報処理装置1の機能を実現するコンピュータ200の一例を示すハードウェア構成図である。コンピュータ200は、CPU201、RAM202、ROM203、HDD204、通信インターフェイス(I/F)205、入出力インターフェイス(I/F)206、及びメディアインターフェイス(I/F)207を有する。
CPU201は、ROM203又はHDD204に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM203は、コンピュータ200の起動時にCPU201によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラム等を格納する。
HDD204は、CPU201によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス205は、ネットワークNを介して他の機器からデータを受信してCPU201へ送り、CPU201が生成したデータを、ネットワークNを介して他の機器へ送信する。
CPU201は、入出力インターフェイス206を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU201は、入出力インターフェイス206を介して、入力装置からデータを取得する。また、CPU201は、生成したデータを、入出力インターフェイス206を介して出力装置へ出力する。
メディアインターフェイス207は、記録媒体208に格納されたプログラム又はデータを読み取り、RAM202を介してCPU201に提供する。CPU201は、かかるプログラムを、メディアインターフェイス207を介して記録媒体208からRAM202上にロードし、ロードしたプログラムを実行する。記録媒体208は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ200が実施形態にかかる情報処理装置1として機能する場合、コンピュータ200のCPU201は、RAM202上にロードされたプログラムを実行することにより、制御部3の機能を実現する。また、HDD204には、記憶部4内のデータが格納される。コンピュータ200のCPU201は、これらのプログラムを、記録媒体208から読み取って実行するが、他の例として、他の装置から、ネットワークNを介してこれらのプログラムを取得してもよい。
上述してきたように、実施形態に係る情報処理装置1は、取得部30と、推定部32とを備える。取得部30は、ユーザUのゲノム情報を取得する。推定部32は、取得部30によって取得されたゲノム情報に基づいて、ユーザUの音声器官の特徴を示す器官情報を推定する。
これにより、サービスの質を向上させることができる。
また、上述した実施形態に係る情報処理装置1は、処理部34をさらに備える。処理部34は、推定部32によって推定されたユーザUの器官情報に基づいて、ユーザUの音声を生成する音声生成処理を行う。
これにより、例えば、挿管等で声が出ないユーザUの音声を再現できるため、このようなユーザUにとって有用なサービスを提供できる。
また、上述した実施形態に係る情報処理装置1は、受付部33と、処理部34とをさらに備える。受付部33は、ユーザUの音声入力を受け付ける。処理部34は、音声生成処理によって生成された音声と、受付部33によって受け付けられた音声とを照合することで、ユーザUを認証する認証処理を行う。
これにより、ユーザUの認証精度を向上させることができる。
また、上述した実施形態に係る情報処理装置1は、生成部31をさらに備える。生成部31は、教師ユーザの器官情報を教師とし、教師ユーザのゲノム情報を素性とする機械学習によって、音声器官の特徴に関する指標を出力するモデルを生成する。推定部32は、取得部30によって取得されたゲノム情報をモデルに入力して、ユーザUの器官情報を推定する。
これにより、ユーザUの器官情報の推定精度を向上させることができる。
また、上述した実施形態に係る情報処理装置1において、取得部30は、ユーザUの器官情報を取得する。生成部31は、推定部32によって推定された器官情報と、取得部30によって取得された器官情報との照合結果に基づいてモデルを更新する。
これにより、器官モデルから出力される指標の精度を向上させることができるため、推定部32による器官情報の推定精度を向上させることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態に記載した各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部32は、推定手段や推定回路に読み替えることができる。
1 情報処理装置
2 通信部
3 制御部
4 記憶部
10 端末装置
30 取得部
31 生成部
32 推定部
33 受付部
34 処理部
100 機関端末
U ユーザ

Claims (7)

  1. ユーザのゲノム情報を取得する取得部と、
    前記取得部によって取得された前記ゲノム情報に基づいて、前記ユーザの音声器官の特徴を示す器官情報を推定する推定部と
    を備えることを特徴とする情報処理装置。
  2. 前記推定部によって推定された前記ユーザの器官情報に基づいて、当該ユーザの音声を生成する音声生成処理を行う処理部をさらに備えること
    を特徴とする請求項1に記載の情報処理装置。
  3. 前記ユーザの音声入力を受け付ける受付部をさらに備え、
    前記処理部は、
    前記音声生成処理によって生成した前記音声と、前記受付部によって受け付けられた音声とを照合することで、前記ユーザを認証する認証処理を行うこと
    を特徴とする請求項2に記載の情報処理装置。
  4. 教師ユーザの器官情報を教師とし、前記教師ユーザのゲノム情報を素性とする機械学習によって、音声器官の特徴に関する指標を出力するモデルを生成する生成部をさらに備え、
    前記推定部は、
    前記取得部によって取得された前記ユーザのゲノム情報を前記モデルに入力して、当該ユーザの器官情報を推定すること
    を特徴とする請求項1〜3のいずれか1つに記載の情報処理装置。
  5. 前記取得部は、
    前記ユーザの器官情報をさらに取得し、
    前記生成部は、
    前記推定部によって推定された前記器官情報と、前記取得部によって取得された前記器官情報との照合結果に基づいて前記モデルを更新すること
    を特徴とする請求項4に記載の情報処理装置。
  6. コンピュータが実行する情報処理方法であって、
    ユーザのゲノム情報を取得する取得工程と、
    前記取得工程によって取得された前記ゲノム情報に基づいて、前記ユーザの音声器官の特徴を示す器官情報を推定する推定工程と
    を含むことを特徴とする情報処理方法。
  7. ユーザのゲノム情報を取得する取得手順と、
    前記取得手順によって取得された前記ゲノム情報に基づいて、前記ユーザの音声器官の特徴を示す器官情報を推定する推定手順と
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2019053889A 2019-03-20 2019-03-20 情報処理装置、情報処理方法および情報処理プログラム Pending JP2020154179A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019053889A JP2020154179A (ja) 2019-03-20 2019-03-20 情報処理装置、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053889A JP2020154179A (ja) 2019-03-20 2019-03-20 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2020154179A true JP2020154179A (ja) 2020-09-24

Family

ID=72558849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053889A Pending JP2020154179A (ja) 2019-03-20 2019-03-20 情報処理装置、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2020154179A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009180958A (ja) * 2008-01-31 2009-08-13 Yamaha Corp パラメータ設定装置、音響生成装置およびプログラム
JP2015536344A (ja) * 2012-11-14 2015-12-21 エディマー ファーマシューティカルズ インコーポレイテッドEdimer Pharmaceuticals,Inc. 外胚葉異形成症の治療のための組成物及び方法
JP2016099901A (ja) * 2014-11-25 2016-05-30 学校法人 岩手医科大学 形質予測モデル作成方法および形質予測方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009180958A (ja) * 2008-01-31 2009-08-13 Yamaha Corp パラメータ設定装置、音響生成装置およびプログラム
JP2015536344A (ja) * 2012-11-14 2015-12-21 エディマー ファーマシューティカルズ インコーポレイテッドEdimer Pharmaceuticals,Inc. 外胚葉異形成症の治療のための組成物及び方法
JP2016099901A (ja) * 2014-11-25 2016-05-30 学校法人 岩手医科大学 形質予測モデル作成方法および形質予測方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宇杉朋子 他: ""猫なき症候群"", 日本臨床(別冊)領域別症候群シリーズ39 精神医学症候群 II, JPN6021000537, 28 August 2003 (2003-08-28), pages 431 - 433, ISSN: 0004424504 *
小井土大: ""2.機械学習によるゲノムデータの解釈と予測"", 遺伝統計学と疾患ゲノムデータ解析, vol. 第1版, JPN6021000536, 10 April 2018 (2018-04-10), pages 143 - 148, ISSN: 0004424503 *

Similar Documents

Publication Publication Date Title
JP7014100B2 (ja) 拡張装置、拡張方法及び拡張プログラム
CN109564640B (zh) 使用代理以实现设备上的机器学习
US10515631B2 (en) System and method for assessing the cognitive style of a person
Warlaumont et al. Learning to produce syllabic speech sounds via reward-modulated neural plasticity
JP6428066B2 (ja) 採点装置及び採点方法
CN109074397B (zh) 信息处理系统和信息处理方法
US20230014315A1 (en) Trained model establishment method, estimation method, performance agent recommendation method, performance agent adjustment method, trained model establishment system, estimation system, trained model establishment program, and estimation program
JP2023055910A (ja) ロボット、対話システム、情報処理方法及びプログラム
JP6680659B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021194527A (ja) 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム
JP2020154179A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2020154178A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2023054132A (ja) 推定装置、推定システム、推定方法、および推定用プログラム
US11526541B1 (en) Method for collaborative knowledge base development
JP2020154180A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2019215823A (ja) 抽出装置、評価装置、抽出方法および抽出プログラム
JP7276433B2 (ja) フィッティング支援装置、フィッティング支援方法、及びプログラム
Faes et al. Speech production accuracy of children with auditory brainstem implants: A comparison with peers with cochlear implants and typical hearing using Levenshtein Distance
JP7300929B2 (ja) 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法
JP2020154176A (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR20220120749A (ko) 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법
JP7188601B2 (ja) 学習装置、推定装置、それらの方法、およびプログラム
WO2022130516A1 (ja) アノテーション装置、アノテーション方法およびアノテーションプログラム
JP2019215483A (ja) 学習装置、学習方法および学習プログラム
JP2019215808A (ja) 評価装置、評価方法および評価プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220606

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220614

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220621

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220902

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220906

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221004

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221122

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230104

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230131

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230131