JP2017068388A - Future image presentation system, future image presentation method and server device - Google Patents

Future image presentation system, future image presentation method and server device Download PDF

Info

Publication number
JP2017068388A
JP2017068388A JP2015190548A JP2015190548A JP2017068388A JP 2017068388 A JP2017068388 A JP 2017068388A JP 2015190548 A JP2015190548 A JP 2015190548A JP 2015190548 A JP2015190548 A JP 2015190548A JP 2017068388 A JP2017068388 A JP 2017068388A
Authority
JP
Japan
Prior art keywords
user
image data
file
image
server device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015190548A
Other languages
Japanese (ja)
Inventor
俊行 高尾
Toshiyuki Takao
俊行 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Klas Design
Klas Design LLC
Original Assignee
Klas Design
Klas Design LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Klas Design, Klas Design LLC filed Critical Klas Design
Priority to JP2015190548A priority Critical patent/JP2017068388A/en
Publication of JP2017068388A publication Critical patent/JP2017068388A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a future image presentation system, a future image presentation method and a server device which allow children to clearly imagine themselves when they get various kinds of jobs in the future, using pictures in which the appearances of the children are changed because of secular change, for assisting selection of an optimal job, and training minds of children for getting the optimal jobs.SOLUTION: A server device 1 comprises: a communication part 13 for communicating with an information terminal of a user; an image acquisition part 10b for acquiring image data of the user through the communication part 13; a secular change processing part 10c for subjecting the image data to secular change; an image composition part 10d for combining image data in a situation to the image data which has been subjected to the secular change; a file creation part 10e for creating a file containing the combined image data; and a main control part 10a for performing control to send the file to the information terminal of the user through the communication part 13. On the information terminal of the user, the appearance of the user in the future who is in a prescribed situation, is presented as a future image.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザの経年変化画像を自動生成し、各種職業、立場、環境など各種シチュエーションにある自分の未来像を提示することができる未来像提示システム、未来像提示方法、及びサーバ装置に関するものである。   The present invention relates to a future image presentation system, a future image presentation method, and a server device that can automatically generate a secular change image of a user and present a future image of the user in various situations such as various occupations, positions, and environments. It is.

少子高齢化した社会においては、子供たちが、各自のなりたい「将来の自分」をしっかりとイメージし、その夢のために自ら率先して学習や練習に取り組むマインドの養成が極めて重要になってくる。例えば、プロのサッカー選手がなりたい自分であると強くイメージできれば、その為の日々の練習も継続することができ、更には将来海外遠征に向けて外国語の習得が必要であることも認識し、その為の準備も進めることができる。また、パイロットがなりたい自分であると強くイメージできれば、特別な学校に進学する必要があり規律正しい生活を送らなければならないことも認識し、そのために幼少期から規律正しい生活を送ろうと自ら生活を律するかもしれない。   In a society with a declining birthrate and an aging population, it is extremely important for children to have a solid image of their “future self” that they want to become and to take the initiative in learning and practice for that dream. . For example, if you can strongly imagine yourself as a professional soccer player, you can continue to practice for that purpose, and also recognize that you need to learn a foreign language for overseas expeditions in the future. Preparation for that can also be advanced. Also, if you can make a strong image that you want to be a pilot, you will recognize that you need to go to a special school and have to live a disciplined life. It may be.

しかしながら、今日では、職業も多様化しており、日々、新しい職種も生まれていることから、子供たちが、これら多様な選択肢を十分に把握した上で自分の適正にあった職業を選択する環境が十分に整っていない。   However, today, occupations are also diversifying, and new occupations are born every day, so there is an environment in which children can select occupations that suit their own needs after fully understanding these various options. Not well equipped.

このような課題に鑑みて、職業適性として定義した複数類の志向それぞれに対して、指定参加者に対してランダムに一つの志向、即ち注目志向を選択し、注目志向に対応して提示される職業カード情報のなかに、指定参加者が選択している志向の情報を含む職業カード情報が存在する場合、その職業カード情報を指定参加者に割り当てるキャリア教育支援システムがある(例えば、特許文献1参照)。   In view of such issues, for each of a plurality of types of orientations defined as occupational aptitude, one orientation, that is, attention orientation, is randomly selected for the designated participant and presented in correspondence with the attention orientation. In the occupation card information, there is a career education support system that assigns the occupation card information to the designated participant when the occupation card information including the orientation information selected by the designated participant exists (for example, Patent Document 1). reference).

特開2006−78916号公報JP 2006-78916 A

しかしながら、特許文献1では、職業適性にあった職業カードを指定参加者に割り当てるに過ぎないので、子供たちに、これを適用した場合、本当にその職業が自分にふさわしいものか、判断することはできない。また、その職業に就いた自分を強くイメージすることができないので、その職業や立場に就くための努力をしようというマインドは継続しない可能性が高い。   However, in Patent Document 1, since a vocational card suitable for occupation is only assigned to a designated participant, when this is applied to children, it cannot be judged whether the occupation is really suitable for me. . In addition, since it is not possible to have a strong image of oneself in that occupation, there is a high possibility that the willingness to make an effort to obtain that occupation or position will not continue.

しかるに、経年変化させた将来の自分の写真、つまり未来像を用いて、子供たちに、将来、各種の職業に就いた自分を強くイメージしてもらい、ひいては未来の自分と対話してもらい、最適な職業選択へと導くシステム等は、従来存在しない。   However, using a photograph of the future that has changed over time, that is, the future image, the children have a strong image of themselves who have entered various occupations in the future. There is no system that leads to the selection of profession.

本発明は、このような課題に鑑みてなされたものであり、経年変化させた写真を用いて子供たちに将来各種の職業等に就いた自分の未来像を強くイメージさせ、最適な職業選択及び当該職業に就くためのマインドの養成を図ること、及びやりたい事を達成させる手段としての職業は多数ある事を理解し、自分で考える可能性の枠を取り外し、可能性は無限に広がっている事を理解させることを目的とする。   The present invention has been made in view of such a problem, and by using images that have changed over time, children are strongly imaged of their future visions of various occupations, etc. Understand that there are many professions as a means to train the mind to get the profession and to achieve what you want to do, remove the possibility of thinking yourself, and the possibilities are infinite The purpose is to help you understand.

上記課題を解決するため、本発明の第1の態様に係るサーバ装置は、ユーザの情報端末と通信する通信手段と、上記通信手段を介してユーザの画像データを取得する画像取得手段と、上記画像データを経年変化させる経年変化処理手段と、上記経年変化させた画像データにシチュエーションの画像データを合成する画像合成手段と、上記合成された画像データを含むファイルを生成するファイル生成手段と、上記ファイルを、上記通信手段を介して上記ユーザの情報端末に送信するように制御する制御手段とを備えている。   In order to solve the above problem, a server device according to a first aspect of the present invention includes a communication unit that communicates with a user's information terminal, an image acquisition unit that acquires user image data via the communication unit, and Aged change processing means for changing image data over time, image composition means for combining situation image data with the aged image data, file generation means for generating a file including the synthesized image data, and Control means for controlling the file to be transmitted to the information terminal of the user via the communication means.

本発明の第2の態様に係るサーバ装置は、第1の態様において、複数のシチュエーションに係る画像データ、テキストデータ、及び音声データを記憶したシチュエーション記憶手段を更に備え、上記ファイル生成手段は、上記合成された画像データと、テキストデータ及び音声データの少なくともいずれかと、を含むファイルを生成する。   The server device according to a second aspect of the present invention further comprises, in the first aspect, situation storage means for storing image data, text data, and audio data relating to a plurality of situations, wherein the file generation means is A file including the synthesized image data and at least one of text data and audio data is generated.

本発明の第3の態様に係るサーバ装置は、第1又は第2の態様において、上記通信手段を介して音声データを取得する音声取得手段と、上記音声データを音声認識する音声認識手段と、上記認識された音声に対応するシナリオを選択するシナリオ選択手段と、上記選択されたシナリオに基づいて音声ファイルを生成する音声ファイル生成手段と、上記音声ファイルを出力する音声ファイル出力手段と、を更に備え、上記制御手段は、上記音声ファイルを、上記通信手段を介して上記ユーザの情報端末に送信するように制御する。   A server device according to a third aspect of the present invention, in the first or second aspect, is a voice acquisition unit that acquires voice data via the communication unit, a voice recognition unit that recognizes the voice data, and Scenario selection means for selecting a scenario corresponding to the recognized voice, voice file generation means for generating a voice file based on the selected scenario, and voice file output means for outputting the voice file And the control means controls the audio file to be transmitted to the information terminal of the user via the communication means.

本発明の第4の態様に係るサーバ装置は、第3の態様において、上記シチュエーションごとに、上記認識された音声に対応するシナリオを複数記憶した対話シナリオ記憶手段を更に備えている。   The server device according to a fourth aspect of the present invention further includes dialog scenario storage means for storing a plurality of scenarios corresponding to the recognized voices for each situation in the third aspect.

本発明の第5の態様に係るサーバ装置は、第1乃至第4の態様において、上記ユーザの属性情報に基づいて上記シチュエーションを選択するシチュエーション選択手段を更に備え、上記属性情報とは、上記ユーザの嗜好性、身体的特徴、得意不得意な科目、及び性格の少なくともいずれかである。   According to a fifth aspect of the present invention, in the first to fourth aspects, the server device further comprises situation selection means for selecting the situation based on the attribute information of the user, wherein the attribute information is the user Is at least one of preference, physical characteristics, weak subject, and personality.

本発明の第6の態様に係るサーバ装置は、上記ユーザと上記シチュエーションとの関係を集計する集計部を更に備え、上記集計部は、上記通信手段を介して上記ユーザの年齢情報を取得し、複数のユーザについて、年齢とシチュエーションとの関係を集計し、年代別になりたい職業のランキング表を生成する。   The server device according to a sixth aspect of the present invention further includes a counting unit that counts the relationship between the user and the situation, and the counting unit acquires the age information of the user via the communication means, For a plurality of users, the relationship between age and situation is aggregated, and a ranking table of occupations that want to be classified by age is generated.

本発明の第7の態様に係る未来像提示システムは、ユーザの情報端末とサーバ装置とからなる未来像提示システムであって、上記情報端末は、上記サーバ装置と通信する第1通信手段と、表示を行う表示手段と、上記第1通信手段を介して上記ユーザの画像データを送信するよう制御する第1制御手段と、を備え、上記サーバ装置は、上記情報端末と通信する第2通信手段と、上記第2通信手段を介してユーザの画像データを取得する画像取得手段と、上記画像データを経年変化させる経年変化処理手段と、上記経年変化させた画像データにシチュエーションの画像データを合成する画像合成手段と、上記合成された画像データを含むファイルを生成するファイル生成手段と、上記ファイルを、上記第2通信手段を介して上記情報端末に送信するように制御する第2制御手段と、を備え、上記情報端末では、上記第1通信手段を介して上記サーバ装置からの上記ファイルを受信し、上記ファイルに基づく表示を上記表示手段にて行うことで、上記ユーザに所定のシチュエーションに置かれた未来の自分の姿を提示する。   A future image presentation system according to a seventh aspect of the present invention is a future image presentation system comprising a user information terminal and a server device, wherein the information terminal communicates with the server device; Display means for performing display, and first control means for controlling transmission of the user's image data via the first communication means, wherein the server device communicates with the information terminal. And image acquisition means for acquiring image data of the user via the second communication means, aging change processing means for changing the image data over time, and combining the image data of the situation with the image data changed over time. Image compositing means, file generating means for generating a file including the synthesized image data, and transmitting the file to the information terminal via the second communication means A second control unit that controls the information terminal to receive the file from the server device via the first communication unit, and display the file based on the file on the display unit. In this way, the user is presented with his future figure placed in a predetermined situation.

本発明の第8の態様に係る未来像提示システムは、上記サーバ装置は、複数のシチュエーションに係る画像データ、テキストデータ、及び音声データを記憶したシチュエーション記憶手段を更に備え、上記ファイル生成手段は、上記合成された画像データと、テキストデータ及び音声データの少なくともいずれかと、を含むファイルを生成する。   In the future image presentation system according to an eighth aspect of the present invention, the server device further includes a situation storage unit that stores image data, text data, and audio data related to a plurality of situations, and the file generation unit includes: A file including the synthesized image data and at least one of text data and audio data is generated.

本発明の第9の態様に係る未来像提示システムは、上記サーバ装置は、上記第2通信手段を介して音声データを取得する音声取得手段と、上記音声データを音声認識する音声認識手段と、上記認識された音声に対応するシナリオを選択するシナリオ選択手段と、上記選択されたシナリオに基づいて音声ファイルを生成する音声ファイル生成手段と、上記音声ファイルを出力する音声ファイル出力手段と、を更に備え、上記第2制御手段は、上記音声ファイルを、上記第2通信手段を介して上記ユーザの情報端末に送信するように制御する。   In a future image presentation system according to a ninth aspect of the present invention, the server device includes a voice acquisition unit that acquires voice data via the second communication unit, a voice recognition unit that recognizes the voice data, Scenario selection means for selecting a scenario corresponding to the recognized voice, voice file generation means for generating a voice file based on the selected scenario, and voice file output means for outputting the voice file The second control means controls the audio file to be transmitted to the information terminal of the user via the second communication means.

そして、本発明の第10の態様に係る未来像提示方法は、ユーザの情報端末とサーバ装置による未来像提示方法であって、上記情報端末が、上記ユーザの画像データを上記サーバ装置に送信するステップと、上記サーバ装置が、上記ユーザの画像データを取得するステップと、上記サーバ装置が、上記画像データを経年変化させ、経年変化させた画像データにシチュエーションの画像データを合成し、合成された画像データを含むファイルを生成するステップと、上記サーバ装置が、上記ファイルを上記情報端末に送信するステップと、上記情報端末が、上記サーバ装置からの上記ファイルを受信し、上記ファイルに基づく表示を行うことで、上記ユーザに所定のシチュエーションに置かれた未来の自分の姿を提示するステップとを有する。   A future image presentation method according to a tenth aspect of the present invention is a future image presentation method using a user information terminal and a server device, and the information terminal transmits the user image data to the server device. A step in which the server device obtains the image data of the user, and the server device synthesizes the image data of the situation with the aging-changed image data by aging the image data. A step of generating a file including image data, a step of the server device transmitting the file to the information terminal, and the information terminal receiving the file from the server device and displaying based on the file. And performing the step of presenting to the user the future figure placed in a predetermined situation.

本発明によれば、経年変化させた写真を用いて子供たちに将来各種の職業等に就いた自分の未来像を強くイメージさせ、最適な職業選択及び当該職業に就くためのマインドの養成を図る未来像提示システム、未来像提示方法、及びサーバ装置を提供することができる。   According to the present invention, children are made to strongly imagine their future image of various occupations using photographs that have changed over time, and an optimal occupation selection and training of the mind to get the occupation are aimed at. A future image presentation system, a future image presentation method, and a server device can be provided.

本発明の第1実施形態に係る未来像提示システムの構成図である。It is a lineblock diagram of the future image presentation system concerning a 1st embodiment of the present invention. サーバ装置の構成図である。It is a block diagram of a server apparatus. ユーザDBに格納されているユーザ管理テーブルの一例を示す図である。It is a figure which shows an example of the user management table stored in user DB. シチュエーションDBに格納されているシチュエーション管理テーブルの一例を示す図である。It is a figure which shows an example of the situation management table stored in situation DB. 集計部による集計結果を示す図である。It is a figure which shows the total result by a total part. 情報端末の構成図である。It is a block diagram of an information terminal. 本発明の第1実施形態に係る未来像提示システムによる処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the future image presentation system which concerns on 1st Embodiment of this invention. (a)乃至(d)は、本発明の第1実施形態に係る未来像提示システムの情報端末側の画面の表示例を示す図である。(A) thru | or (d) is a figure which shows the example of a display of the screen by the side of the information terminal of the future image presentation system which concerns on 1st Embodiment of this invention. コンテンツ生成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a content production | generation process. 本発明の第2実施形態に係る未来像提示システムのサーバ装置の構成図である。It is a block diagram of the server apparatus of the future image presentation system which concerns on 2nd Embodiment of this invention. 対話シナリオDBのシナリオテーブルの構成例を示す図である。It is a figure which shows the structural example of the scenario table of dialog scenario DB. 対話部の詳細な構成を示す図である。It is a figure which shows the detailed structure of a dialogue part. 本発明の第2実施形態に係る未来像提示システムによる処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the future image presentation system which concerns on 2nd Embodiment of this invention. コンテンツ生成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a content production | generation process. 対話処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a dialogue process. 本発明の第3実施形態に係る未来像提示システムのサーバ装置の構成を示す図である。It is a figure which shows the structure of the server apparatus of the future image presentation system which concerns on 3rd Embodiment of this invention. (a)乃至(d)は、シチュエーション選択部による選択時に参照されるユーザの属性情報を示す図である。(A) thru | or (d) is a figure which shows the attribute information of the user referred at the time of selection by a situation selection part.

以下、図面を参照しつつ本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1実施形態> <First Embodiment>

図1には本発明の第1実施形態に係る未来像提示システムの構成を示し説明する。   FIG. 1 shows and describes the configuration of a future image presentation system according to the first embodiment of the present invention.

同図に示されるように、未来像提示システムは、サーバ装置1と、ユーザの情報端末2とが、インターネットなどのネットワーク3を介して接続され構成されている。ユーザの情報端末2としては、例えば、スマートフォン、タブレット端末、携帯電話機などの携帯端末2a、ノート型パーソナルコンピュータ(以下、パソコンと略記)2b、デスクトップ型パソコン2cなど、種々のものを採用することができる。ユーザの情報端末2は、無線通信でネットワーク3に接続されるようにしてもよい。   As shown in the figure, the future image presentation system includes a server device 1 and a user information terminal 2 connected via a network 3 such as the Internet. As the user information terminal 2, for example, various devices such as a mobile terminal 2a such as a smartphone, a tablet terminal, and a mobile phone, a notebook personal computer (hereinafter abbreviated as a personal computer) 2b, and a desktop personal computer 2c may be adopted. it can. The user information terminal 2 may be connected to the network 3 by wireless communication.

このような構成において、ユーザは、情報端末2によりサーバ装置1が提供するWebサイトにアクセスする。そして、自分の画像をアップロードし、現在の年齢、未来像に係る見たい年齢を入力し、シチュエーション(例えば、職業、立場、環境)を選択する。すると、これらの情報がサーバ装置1側に送られ、サーバ装置1ではアップロードされた画像データに経年変化処理を施し、シチュエーションに係る画像データと合成する。そしてシチュエーションに対応するテキストデータ(コメント)や音声データ(コメント)がある場合には、上記合成画像データと共に、これらテキストデータ、音声データを1つのファイルにまとめて、情報端末2側に送信する。情報端末2側では、このファイルを受信すると、ブラウザ機能により、所定のシチュエーションに置かれた経年変化した自分の大人になった画像、つまり「未来像」を、コメント等と共に再生する。   In such a configuration, the user accesses the Web site provided by the server device 1 through the information terminal 2. Then, the user uploads his / her image, inputs the current age and the age desired to see the future image, and selects a situation (for example, occupation, position, environment). Then, these pieces of information are sent to the server device 1, and the server device 1 performs an aging process on the uploaded image data and synthesizes it with the image data related to the situation. If there is text data (comment) or voice data (comment) corresponding to the situation, the text data and voice data are combined into one file and transmitted to the information terminal 2 side together with the synthesized image data. When the information terminal 2 receives this file, the browser function reproduces an image of an adult who has changed over time and placed in a predetermined situation, that is, a “future image” together with a comment or the like.

従って、ユーザは、特定のシチュエーション(例えば、職業、立場、環境)に就いた自分の経年変化画像を、その職業等に就いた自分からのコメント等と共に確認することができるので、自分の「未来像」をより強くイメージすることができ、より適性のある職業を選択できるようになる。また、そのシチュエーションに将来の自分を置きたいとの意欲が高まることが期待できる。   Therefore, the user can confirm his / her secular change image in a specific situation (for example, occupation, position, environment) together with comments from the person who has entered the occupation, etc. The image can be imaged more strongly, and a more suitable occupation can be selected. In addition, it can be expected that the willingness to put a future self in the situation will increase.

図2には、サーバ装置1の構成を更に詳細に示し説明する。   FIG. 2 shows the configuration of the server device 1 in more detail and will be described.

同図に示されるように、サーバ装置1は、全体の制御を司るCPU(Central Processing Unit)等の制御部10を備えており、制御部10は、通信バス17を介して、メモリやHDD(Hard Disc Drive)等の記憶部12、通信手段としての通信部13、ユーザデータベース(以下、DBと略記)、シチュエーション記憶手段としてのシチュエーションDB15、集計結果DB16と接続されている。制御部10は、記憶部12の制御プログラム11を読み出し、実行することで、制御手段としての主制御部10a、画像取得手段としての画像取得部10b、経年変化処理手段としての経年変化処理部10c、画像合成手段としての画像合成部10d、ファイル生成手段としてのファイル生成部10e、及び集計部10fとして機能する。この制御プログラムの実行時には、記憶部12は、ワークエリアを提供することになる。   As shown in FIG. 1, the server device 1 includes a control unit 10 such as a CPU (Central Processing Unit) that performs overall control. The control unit 10 is connected to a memory or HDD (through a communication bus 17). Are connected to a storage unit 12 such as a hard disk drive), a communication unit 13 as a communication unit, a user database (hereinafter abbreviated as DB), a situation DB 15 as a situation storage unit, and a tabulation result DB 16. The control unit 10 reads out and executes the control program 11 in the storage unit 12 to thereby execute a main control unit 10a as a control unit, an image acquisition unit 10b as an image acquisition unit, and a secular change processing unit 10c as an aging processing unit. It functions as an image composition unit 10d as an image composition unit, a file generation unit 10e as a file generation unit, and a totaling unit 10f. When this control program is executed, the storage unit 12 provides a work area.

このような構成において、通信部13は、ユーザの情報端末2等とネットワーク3を介して通信する。記憶部12は、制御プログラムを記憶すると共に、その実行時にはワークエリアとして機能する。ユーザDB14は、図3に示されるように、ユーザのユーザID(UID)と年齢、選択年齢、シチュエーションID(SID)、画像ファイルを対応付けて記憶している。シチュエーションDB15は、図4に示されるように、シチュエーションID(SID)とシチュエーション名、画像ファイル、コメント(テキストデータ、音声データ)を各シチュエーション毎に対応付けて記憶している。集計結果DB16は、図5に示されるように、各年代、性別、地域(市町村、都道府県、国等をログイン場所等に基づいて検出)ごとに、ないたいシチュエーション(この例では、職業)のランキングを一覧形式で記憶している。   In such a configuration, the communication unit 13 communicates with the user information terminal 2 or the like via the network 3. The storage unit 12 stores a control program and functions as a work area when the control program is executed. As shown in FIG. 3, the user DB 14 stores a user ID (UID) of a user, an age, a selected age, a situation ID (SID), and an image file in association with each other. As shown in FIG. 4, the situation DB 15 stores a situation ID (SID), a situation name, an image file, and a comment (text data, audio data) in association with each situation. As shown in FIG. 5, the tabulation result DB 16 has a situation (in this example, occupation) that is not desired for each age, gender, and region (detects the municipality, prefecture, country, etc. based on the login location). The ranking is stored in a list format.

一方、制御部10の各部10aから10fは次のように機能する。通信部13を介してユーザの情報端末2から送られてきた画像データ、年齢や選択年齢、選択されたシチュエーションに係る属性データを含むファイルを受信すると、画像取得部10bは、画像データを取得する。そして、経年変化処理部10cは、ユーザの年齢及び選択年齢に係る属性データに基づいて、ユーザの画像データを経年変化させる。   On the other hand, each part 10a to 10f of the control part 10 functions as follows. When receiving a file containing image data, age or selected age, and attribute data related to the selected situation sent from the user information terminal 2 via the communication unit 13, the image acquisition unit 10b acquires the image data. . Then, the secular change processing unit 10c changes the image data of the user over time based on the attribute data relating to the user's age and the selected age.

続いて、画像合成部10dは経年変化させた画像データに属性データに基づいて選択したシチュエーション画像データを合成する。ファイル生成部10eは、この合成された画像データと、シチュエーションに紐づけられたコメントに関わるテキストデータ、音声データを含むファイルを生成する。主制御部10aは、このファイルを、通信部13を介してユーザの情報端末2に送信する。   Subsequently, the image composition unit 10d synthesizes the situation image data selected based on the attribute data with the image data changed over time. The file generation unit 10e generates a file including the synthesized image data and text data and voice data related to the comment associated with the situation. The main control unit 10 a transmits this file to the user information terminal 2 via the communication unit 13.

これにより、ユーザの情報端末2側では、ユーザにより選択されたシチュエーション(例えば、職業、立場、又は環境)におかれた自分の経年変化画像をコメントがある場合にはコメントも添えて表示し、確認するよう促すことになる。   As a result, on the user's information terminal 2 side, if there is a comment on his own secular change image placed in the situation (for example, occupation, position, or environment) selected by the user, the comment is also displayed. You will be prompted to confirm.

集計部10fは、ユーザDB14を参照して、ユーザとシチュエーションとの関係を集計する。集計結果は、先に図5に示されたような一覧表形式となる。集計結果は、複数のユーザについて、年齢とシチュエーションとの関係を集計したもので、年代別になりたい職業のランキング表となっているが、これには限定されない。   The totaling unit 10f refers to the user DB 14 and totals the relationship between the user and the situation. The total result is in a list form as shown in FIG. The tabulation result is a tabulation table of occupations that are desired to be classified by age, and is a summation of the relationship between age and situation for a plurality of users, but is not limited thereto.

図6には情報端末2の詳細な構成を示し説明する。   FIG. 6 shows a detailed configuration of the information terminal 2 and will be described.

同図に示されるように、情報端末2は、全体の制御を司るCPU等の制御部20を備えており、制御部20は、通信バス28を介して、メモリやHDD等の記憶部21、通信手段としての通信部22、タッチパネル(表示部24、操作部25)、マイクロフォン等の音声入力部26、スピーカ等の音声出力部27、カメラ部29と接続されている。制御部20は、記憶部21の制御プログラムを読み出し実行することで、制御手段としての主制御部20a、ブラウザ部20b、及び表示制御部20cとして機能する。制御プログラムの実行時には、記憶部21は、ワークエリアを提供することになる。   As shown in the figure, the information terminal 2 includes a control unit 20 such as a CPU that performs overall control. The control unit 20 is connected to a storage unit 21 such as a memory and an HDD via a communication bus 28. The communication unit 22 as a communication means, a touch panel (display unit 24, operation unit 25), a voice input unit 26 such as a microphone, a voice output unit 27 such as a speaker, and a camera unit 29 are connected. The control unit 20 functions as a main control unit 20a, a browser unit 20b, and a display control unit 20c as control means by reading and executing the control program in the storage unit 21. When the control program is executed, the storage unit 21 provides a work area.

このような構成において、ブラウザ部20bにより、通信部22を介してサーバ装置1の提供するWebサイトにアクセスすると、表示制御部20cの制御の下、詳細な図8で後述するような画面が表示部24に表示される。ユーザは、操作部25を操作することで画像データのアップロード、年齢や選択年齢の入力、シチュエーションの選択を行う。ブラウザ部20bは、これら属性データと画像データをサーバ装置1に通信部22を介して通信する。そして、サーバ装置1から、経年変化した画像データと、コメントに関わるテキストデータ、音声データを含むファイルを、通信部22を介して受信すると、ブラウザ部20bは、それを取得し、表示制御部20cの制御の下、表示部24に未来像に関わる表示を行うことになる。   In such a configuration, when the browser unit 20b accesses the Web site provided by the server device 1 via the communication unit 22, a screen as described later in detail in FIG. 8 is displayed under the control of the display control unit 20c. Displayed on the unit 24. The user operates the operation unit 25 to upload image data, input age and selected age, and select a situation. The browser unit 20b communicates the attribute data and the image data to the server device 1 via the communication unit 22. Then, when the server unit 1 receives a file including image data that has changed over time, text data related to comments, and audio data via the communication unit 22, the browser unit 20b acquires the file and displays the display control unit 20c. Under the control, display related to the future image is performed on the display unit 24.

これにより、選択年齢時の自分の姿が選択シチュエーションと重ね合わされて、更にシチュエーションについた自分の感想やアドバイスといったコメントも併せて表示又は出力されるので、未来像を強く実感することができる。   As a result, the appearance of the person at the selected age is superimposed on the selected situation, and comments such as his / her impressions and advice on the situation are also displayed or output, so that the future image can be strongly felt.

以下、図7のフローチャートを参照して、発明の第1実施形態に係る未来像提示システムによる処理手順を説明する。ここでは、図8(a)乃至(d)の未来像提示システムの情報端末2側の画面の表示例を適宜参照する。   Hereinafter, with reference to the flowchart of FIG. 7, the processing procedure by the future image presentation system according to the first embodiment of the invention will be described. Here, a display example of the screen on the information terminal 2 side of the future image presentation system of FIGS. 8A to 8D will be referred to as appropriate.

処理を開始すると、ユーザは情報端末2のブラウザ部20bによりサーバ装置1の提供するWebサイトにアクセスする(S1)。サーバ装置1は、主制御部10aがユーザに対してユーザIDを割り当て(S2)、主制御部10aが、画像選択画面のHTMLデータを通信部13を介して送信する(S3)。情報端末2は、この画像選択画面のHTMLデータを通信部22を介して受信すると(S4)、表示制御部20cの制御の下、表示部24に画像選択画面100を表示する(S5)。   When the process is started, the user accesses the Web site provided by the server device 1 through the browser unit 20b of the information terminal 2 (S1). In the server device 1, the main control unit 10a assigns a user ID to the user (S2), and the main control unit 10a transmits the HTML data of the image selection screen via the communication unit 13 (S3). When the information terminal 2 receives the HTML data of the image selection screen via the communication unit 22 (S4), the information terminal 2 displays the image selection screen 100 on the display unit 24 under the control of the display control unit 20c (S5).

画像選択画面100の一例は、図8(a)に示される通りであり、撮影や画像選択に関する案内表示領域100aと、カメラによる撮影に移行する撮影ボタン100b、ライブラリの中から画像を選択する画像選択ボタン100cが表示される。この撮影ボタン100bを選択すると、情報端末に内蔵されたカメラ部28による撮影が実施され、撮影された画像データはアップロードの対象となる。画像選択ボタン100cが選択されると、ライブラリが表示され、その中から画像を選択すると、その画像データはアップロードの対象となる。通信部22を介して外部のストレージサーバにアクセスして、画像を選択するようにしてもよいことは勿論である。   An example of the image selection screen 100 is as shown in FIG. 8A. A guide display area 100a for shooting and image selection, a shooting button 100b for shifting to camera shooting, and an image for selecting an image from the library. A selection button 100c is displayed. When the photographing button 100b is selected, photographing is performed by the camera unit 28 built in the information terminal, and the photographed image data is an object to be uploaded. When the image selection button 100c is selected, a library is displayed. When an image is selected from the library, the image data becomes an upload target. Of course, an image may be selected by accessing an external storage server via the communication unit 22.

この画像選択画面100において、操作部25が操作されて、画像データが選択されたか否かが主制御部20aにより判断され(S6)、選択されるまで待機し、選択されると(S6をYes)、主制御部20aの制御の下、通信部22を介して、画像データがサーバ装置1へと送信される(S7)。サーバ装置1では、通信部13を介して画像データを受信すると、ユーザDB14に、ユーザIDと紐づけて画像データを格納する(S8)。   In this image selection screen 100, it is determined by the main control unit 20a whether or not the operation unit 25 is operated and image data is selected (S6), waits until it is selected, and if selected (Yes in S6). ), Image data is transmitted to the server device 1 via the communication unit 22 under the control of the main control unit 20a (S7). When the server device 1 receives the image data via the communication unit 13, the server device 1 stores the image data in the user DB 14 in association with the user ID (S8).

続いて、サーバ装置1では、主制御部10aが、年齢等入力画面のHTMLデータを通信部13を介して送信する(S9)。情報端末2は、この年齢等入力画面のHTMLデータを通信部22を介して受信すると(S10)、表示制御部20cの制御の下、表示部24に年齢等入力画面101表示する(S11)。   Subsequently, in the server device 1, the main control unit 10a transmits the HTML data of the input screen such as age via the communication unit 13 (S9). When the information terminal 2 receives the HTML data of the age input screen via the communication unit 22 (S10), the information terminal 2 displays the age input screen 101 on the display unit 24 under the control of the display control unit 20c (S11).

この年齢等入力画面101の一例は、図8(b)に示される通りであり、先に選択された画像データに係る画像が表示される画像表示領域101aと、性別を選択する性別選択領域101b、今の年齢を入力する年齢入力領域101c、及び未来の年齢を入力する選択年齢入力領域101dが表示される。   An example of the age etc. input screen 101 is as shown in FIG. 8B. An image display area 101a for displaying an image related to the previously selected image data, and a gender selection area 101b for selecting a gender. An age input area 101c for inputting the current age and a selected age input area 101d for inputting the future age are displayed.

この年齢等入力画面101において、操作部25が操作されて、各種選択や入力がなされたか否かが主制御部20aにより判断され(S12)、選択、入力されるまで待機し、選択、入力されると(S12をYes)、主制御部20aの制御の下、通信部22を介して性別、年齢、選択年齢を含む属性データがサーバ装置1へと送信される(S13)。サーバ装置1では、通信部13を介して属性データを受信すると、ユーザDB14に、ユーザIDと紐づけて属性データを格納する(S14)。   In the input screen 101 such as age, the main control unit 20a determines whether or not various selections and inputs have been made by operating the operation unit 25 (S12), and waits until selection and input are made. Then (Yes in S12), attribute data including gender, age, and selected age is transmitted to the server device 1 via the communication unit 22 under the control of the main control unit 20a (S13). When the server device 1 receives the attribute data via the communication unit 13, the server device 1 stores the attribute data in the user DB 14 in association with the user ID (S14).

続いて、サーバ装置1では、主制御部10aが、シチュエーション選択画面のHTMLデータを通信部13を介して送信する(S15)。情報端末2は、このシチュエーション選択画面のHTMLデータを通信部22を介して受信すると(S16)、表示制御部20cの制御の下、表示部24にシチュエーション選択画面102表示する(S17)。   Subsequently, in the server device 1, the main control unit 10a transmits the HTML data of the situation selection screen via the communication unit 13 (S15). When the information terminal 2 receives the HTML data of the situation selection screen via the communication unit 22 (S16), the information terminal 2 displays the situation selection screen 102 on the display unit 24 under the control of the display control unit 20c (S17).

このシチュエーション選択画面102の一例は、図8(c)に示される通りであり、この例では、カテゴリ選択領域102aと、シチュエーション選択領域102bが表示される。カテゴリ選択領域102aでは、「職業で選ぶ」、「場所で選ぶ」、「好きで選ぶ」、「お金で選ぶ」、「興味で選ぶ」、「幸せで選ぶ」の中から所望とするカテゴリを選択することができ、1つを選択すると、そのカテゴリに関わるシチュエーションの選択枝がシチュエーション選択領域102bに表示され、選択可能となる。但し、これは一例であって、これらに限定されるものではない。   An example of the situation selection screen 102 is as shown in FIG. 8C. In this example, a category selection area 102a and a situation selection area 102b are displayed. In the category selection area 102a, a desired category is selected from “select by occupation”, “select by place”, “select by favorite”, “select by money”, “select by interest”, and “select by happiness”. When one is selected, a situation selection related to the category is displayed in the situation selection area 102b and can be selected. However, this is an example, and the present invention is not limited to these.

このシチュエーション選択画面102において、操作部25が操作されて、選択がなされたか否かが主制御部20aにより判断され(S18)、選択されるまで待機し、選択されると(S18をYes)、主制御部20aの制御の下、通信部22を介してシチュエーションのデータが属性データの一部としてサーバ装置1へと送信される(S19)。サーバ装置1では、通信部13を介して属性データを受信すると、ユーザDB14に、ユーザIDと紐づけて属性データを格納する(S20)。   In the situation selection screen 102, the operation unit 25 is operated, and the main control unit 20a determines whether or not a selection has been made (S18), waits until it is selected, and if selected (Yes in S18), Under the control of the main control unit 20a, the situation data is transmitted to the server device 1 as part of the attribute data via the communication unit 22 (S19). When the server device 1 receives the attribute data via the communication unit 13, the server device 1 stores the attribute data in the user DB 14 in association with the user ID (S20).

続いて、サーバ装置1は、詳細は図9で後述するが、コンテンツ生成処理を実行する(S21)。コンテンツ生成処理では、ユーザDB14に格納されているユーザの画像データ及び属性データに基づいて、経年変化処理部10cが選択年齢に相当する経年変化画像を生成し、画像合成部10dが経年変化画像データと属性データに対応するシチュエーションの画像データとを合成し、ファイル生成部10eが合成画像データとシチュエーションに対応するコメント(テキストデータ、音声データ)がある場合には当該コメントとを含むファイルを生成する。サーバ装置1は、主制御部10aの制御の下、このファイルをユーザの情報端末2に送信する(S22)。   Subsequently, the server device 1 executes content generation processing (details will be described later with reference to FIG. 9) (S21). In the content generation processing, based on the user image data and attribute data stored in the user DB 14, the aging processing unit 10c generates an aging image corresponding to the selected age, and the image composition unit 10d uses the aging image data. And the image data of the situation corresponding to the attribute data are combined, and the file generation unit 10e generates a file including the combined image data and the comment corresponding to the situation (text data, audio data). . The server device 1 transmits this file to the user information terminal 2 under the control of the main control unit 10a (S22).

こうして、ユーザの情報端末2では、通信部22を介して、このサーバ装置1からのファイルを受信すると、ブラウザ部20bにより、表示部24にてファイルに基づくコンテンツの再生が行われることになる(S23)。   Thus, when the user information terminal 2 receives the file from the server device 1 via the communication unit 22, the browser unit 20b reproduces the content based on the file on the display unit 24 ( S23).

この再生画面103の一例は、図8(d)に示される通りであり、この例では、経年変化したユーザの画像が選択したシチュエーションの画像と重ねて表示され、シチュエーションに係るコメントも併せて表示される。こうして、経年変化画像を用いたコンテンツ再生に係る一連の処理を終了する。   An example of the playback screen 103 is as shown in FIG. 8D. In this example, the user's image that has changed over time is displayed overlaid on the selected situation image, and the comments related to the situation are also displayed. Is done. In this way, a series of processes relating to content reproduction using the secular change image is completed.

次に図9のフローチャートを参照して、図7のステップS21で実行されるコンテンツ生成処理の処理手順を詳細に説明する。   Next, the processing procedure of the content generation processing executed in step S21 of FIG. 7 will be described in detail with reference to the flowchart of FIG.

この処理に入ると、先ず画像取得部10bが、ユーザDB14よりユーザの画像データを読み出す(S31)。続いて、経年変化処理部10cが、画像データに対して、ユーザの属性データに含まれる選択年齢に相当する経年変化処理を施す(S32)。   In this process, first, the image acquisition unit 10b reads user image data from the user DB 14 (S31). Subsequently, the secular change processing unit 10c performs an aging process corresponding to the selected age included in the user attribute data on the image data (S32).

ここで、経年変化処理としては、種々の手法を採用できるが、例えば、次のような手法を用いることができる。先ず、ウェブ上の顔の画像データを性別、年齢毎に選び、同じ年代、性別の人の平均的な顔(平均顔)をつくり上げ、輪郭、目、鼻、口、と、特徴的部分をポインティングする。そして、各年代の平均顔の、ポイントの変化位置を加齢による平均的経年情報とし、ユーザによりアップロードされた画像データから、ユーザの属性データに含まれる現在の年齢、見たい年齢である選択年齢、性別の情報を基に、画像を変化させる事で、経年変化させた画像データを生成する。   Here, as the secular change processing, various methods can be adopted, and for example, the following methods can be used. First, the face image data on the web is selected for each gender and age, and an average face (average face) of people of the same age and gender is created, and the contours, eyes, nose, mouth, and characteristic parts are pointed To do. Then, the average face of each age is used as the average aging information by aging as the point change position, and from the image data uploaded by the user, the current age included in the user's attribute data, the selected age that is the age to be viewed By changing the image based on the sex information, the aged image data is generated.

続いて、画像合成部10dは、シチュエーションDB15から、ユーザの属性データに含まれるシチュエーションに対応するシチュエーションのが画像データを読み出し(S33)、先に経年変化させた画像データとシチュエーションの画像データとの画像合成処理を行う(S34)。そして、ファイル生成部10eは、合成された画像データと、シチュエーションに対応するコメント(テキストデータ、音声データ)が存在する場合にはそれらデータも含めて、ファイルを生成する(S35)。こうして、図7のステップS21以降の処理にリターンすることになる。   Subsequently, the image composition unit 10d reads the image data of the situation corresponding to the situation included in the user's attribute data from the situation DB 15 (S33), and the image data of the situation and the image data of the situation previously changed. Image composition processing is performed (S34). Then, the file generation unit 10e generates a file including the combined image data and comments (text data, audio data) corresponding to the situation (S35). In this way, the processing returns to the processing after step S21 in FIG.

以上説明したように、本発明の第1実施形態によれば、経年変化した未来の自分の姿と未来の自分のおかれた職業、環境、立場などのシチュエーションを重ねて目視することができるので、印象強い未来像を実感することができるようになる。更に、ユーザの利用の過程で、ユーザの属性データの収集が可能となるので、世界中の子供たちの将来なりたい自分のマーケティングデータを得ることが可能となり、産業界における人口分布を予見することも可能となる。更には、ユーザは、このシステムの利用を繰り返す中、自分にふさわしい職業がないことを実感すると、自ら新しいシチュエーションを創り出そうと、活動を始めることにも予想され、それは産業全体の発展をもたらすものになる。   As described above, according to the first embodiment of the present invention, it is possible to visually check the situation of the future changed over time and the future occupation, environment, position, etc. , You will be able to feel the impressive future image. In addition, user attribute data can be collected in the course of user use, so it is possible to obtain the marketing data of children around the world that they want to be in the future, and foresee the population distribution in the industry. It becomes possible. Furthermore, as users repeat the use of this system and realize that there is no profession suitable for them, they are also expected to start activities to create new situations themselves, which will lead to the development of the entire industry. Become.

<第2実施形態> Second Embodiment

図10には本発明の第2実施形態に係る未来像提示システムのサーバ装置の構成を詳細に示し説明する。ここでは、図2と同一構成については同一符号を付し、異なる部分を中心に説明を進める。   FIG. 10 shows in detail the configuration of the server device of the future image presentation system according to the second embodiment of the present invention. Here, the same components as those in FIG. 2 are denoted by the same reference numerals, and the description will be focused on different parts.

同図に示されるように、サーバ装置30は、記憶部12に記憶された制御プログラム31を読み出し実行することで、図2の機能に加えて、対話部10g、対話画像変換処理部10hとしても機能する。サーバ装置30は、対話シナリオDB32を備えている。対話シナリオDB32は図11に示されるような構成となっており、シチュエーションID(SID)と、当該シチュエーションごとに認識ワードと対応シナリオとを対応付けて記憶している。例えば、選択されたシチュエーションがSID=S001である場合に、認識ワードが「楽しいですか」であれば、対応シナリオとして「楽しいですよ」が特定されることになる。   As shown in the figure, the server device 30 reads out and executes the control program 31 stored in the storage unit 12, so that the dialogue unit 10 g and the dialogue image conversion processing unit 10 h can be used in addition to the functions shown in FIG. 2. Function. The server device 30 includes a dialogue scenario DB 32. The dialogue scenario DB 32 is configured as shown in FIG. 11, and stores a situation ID (SID), a recognition word and a corresponding scenario for each situation in association with each other. For example, if the selected situation is SID = S001 and the recognition word is “fun”, then “is fun” is specified as the corresponding scenario.

対話部10gは、ユーザの情報端末2から送られてきた音声データを音声認識し、認識された認識ワードと対応する対応シナリオを対話シナリオDB32のテーブルから読み出し、音声ファイルを生成して、出力する。これをユーザの情報端末2との間で繰り返すことで、対話が成立することになる。この対話中にも、先に説明したような経年変化させた画像データにシチュエーションを重ねた画像は継続して表示される。対話画像変換処理部10hは、合成された画像データを対話画像データに変換する。   The dialogue unit 10g recognizes the voice data sent from the user's information terminal 2, reads out the corresponding scenario corresponding to the recognized recognition word from the table of the dialogue scenario DB 32, generates a voice file, and outputs it. . By repeating this with the user's information terminal 2, a dialogue is established. Even during this dialogue, the image in which the situation is superimposed on the image data changed with time as described above is continuously displayed. The dialogue image conversion processing unit 10h converts the synthesized image data into dialogue image data.

ここで、図11には対話部10gの詳細な構成を示し更に説明する。   Here, FIG. 11 shows a detailed configuration of the dialogue unit 10g and will be further described.

同図に示されるように、対話部10gは、音声取得部33a、音声認識部33b、シナリオ選択部33c、音声ファイル生成部33d、及び音声ファイル出力部33eを備えている。音声ファイルのファイル形式としては、MP3等、種々のものがある。   As shown in the figure, the dialogue unit 10g includes a voice acquisition unit 33a, a voice recognition unit 33b, a scenario selection unit 33c, a voice file generation unit 33d, and a voice file output unit 33e. There are various audio file formats such as MP3.

このような構成において、音声取得部33aは、通信部13を介して受信した音声データを取得する。音声認識部33bは、音声データを音声認識する。シナリオ選択部33cは、認識された音声に対応するシナリオを選択する。音声ファイル生成部33dは、対話シナリオDB32を参照して、選択された対話シナリオに基づいて音声ファイルを生成する。そして、音声ファイル出力部33eは、音声ファイルを出力する。この音声ファイルは、主制御部10aの制御の下、通信部13を介してユーザの情報端末2に送信されることになる。   In such a configuration, the voice acquisition unit 33 a acquires voice data received via the communication unit 13. The voice recognition unit 33b recognizes voice data. The scenario selection unit 33c selects a scenario corresponding to the recognized voice. The audio file generation unit 33d refers to the dialogue scenario DB 32 and generates an audio file based on the selected dialogue scenario. The audio file output unit 33e outputs an audio file. This audio file is transmitted to the user information terminal 2 through the communication unit 13 under the control of the main control unit 10a.

以下、図13のフローチャートを参照して、本発明の第2実施形態に係る未来像提示システムによる処理手順を説明する。ここでは、図7と同一の処理については、同一のステップ番号を付し、異なる部分を中心に説明する。   Hereinafter, with reference to the flowchart of FIG. 13, a processing procedure by the future image presentation system according to the second embodiment of the present invention will be described. Here, the same processes as those in FIG. 7 are denoted by the same step numbers, and different portions will be mainly described.

この処理では、先ずステップS41にて実行するコンテンツ生成処理が図7とは異なっている。ここでは、対話している臨場感を高めるために、経年変化後の画像データを対話画像に変換する処理を更に加えている。これにより、動画像のように、あたかも画面の向こうの未来像が自分に語りかけているかのごとき画像再生を実現する。   In this process, the content generation process executed in step S41 is different from that in FIG. Here, in order to enhance the sense of realism during the dialogue, a process of converting the image data after aging into a dialogue image is further added. This realizes image reproduction as if the future image on the other side of the screen is speaking to itself like a moving image.

また、この処理では、ステップS42、ステップS43にて実施される対話処理が更に加えられている。詳細は後述するが、ユーザの情報端末2より送られてきた音声データを音声認識し、対応シナリオを対話シナリオDB32より読み出し、音声ファイルを生成して送信する処理を対話が途絶えるまで実施することになる。   Further, in this process, the dialogue process performed in steps S42 and S43 is further added. Although details will be described later, the voice data sent from the user's information terminal 2 is voice-recognized, the corresponding scenario is read from the dialogue scenario DB 32, and the process of generating and sending the voice file is performed until the dialogue is interrupted. Become.

以下、図14のフローチャートを参照して、図13のステップS41で実行されるコンテンツ生成処理の処理手順を更に詳細に説明する。   Hereinafter, the processing procedure of the content generation processing executed in step S41 of FIG. 13 will be described in more detail with reference to the flowchart of FIG.

この処理に入ると、先ず画像取得部10bが、ユーザDB14よりユーザの画像データを読み出す(S51)。続いて、経年変化処理部10cが、画像データに対して、ユーザの属性データに含まれる選択年齢に相当する経年変化処理を施す(S52)。経年変化処理については、前述した手法をはじめ、種々のものを採用できる。続いて、画像合成部10dは、シチュエーションDB15から、ユーザの属性データに含まれるシチュエーションに対応する画像データを読み出し(S53)、先に経年変化させた画像データとシチュエーションの画像データとの画像合成処理を行う(S54)。そして、対話画像変換処理部10hが、合成された画像データを更に対話画像データに変換する。   In this process, first, the image acquisition unit 10b reads user image data from the user DB 14 (S51). Subsequently, the secular change processing unit 10c performs an aging process corresponding to the selected age included in the user attribute data on the image data (S52). As the aging process, various methods including the above-described method can be adopted. Subsequently, the image composition unit 10d reads out the image data corresponding to the situation included in the user attribute data from the situation DB 15 (S53), and the image composition process of the image data that has been changed over time and the image data of the situation in advance. (S54). Then, the dialogue image conversion processing unit 10h further converts the synthesized image data into dialogue image data.

この対話画像変換処理については、種々の手法を採用することができるが、例えば画像の中の特徴点として、口角等を検出し、その口角の位置を変更することで、口が開いた画像と口が閉じた画像とを交互に繰り替えるような複数フレームを生成し、動画データとすることが可能である。   For this interactive image conversion processing, various methods can be adopted. For example, by detecting the mouth corner as a feature point in the image and changing the position of the mouth corner, It is possible to generate a plurality of frames that alternately repeat an image with a closed mouth and use it as moving image data.

ファイル生成部10eは、この動画データと、シチュエーションに対応するコメント(テキストデータ、音声データ)が存在する場合にはそれらデータも含めて、ファイルを生成する(S55)。こうして、図13のステップS41以降の処理にリターンする。尚、音声データがファイルに含まれる場合、その音声は、対話開始前の初期コメントとして再生されることになる。   The file generation unit 10e generates a file including the moving image data and comments (text data, audio data) corresponding to the situation (S55). In this way, the processing returns to the processing after step S41 in FIG. When audio data is included in the file, the audio is reproduced as an initial comment before starting the dialogue.

次に、図15のフローチャートを参照して、図13のステップS42で実行される対話処理の詳細な処理手順を更に詳細に説明する。   Next, with reference to the flowchart of FIG. 15, the detailed processing procedure of the dialogue process executed in step S42 of FIG. 13 will be described in more detail.

初期のコメントと共に動画が再生された後、情報端末2にて音声入力部26より音声が入力されると、主制御部20aは音声ファイルをサーバ装置1側に送信する(S61)。   After the moving image is reproduced together with the initial comment, when voice is input from the voice input unit 26 in the information terminal 2, the main control unit 20a transmits the voice file to the server device 1 side (S61).

サーバ装置1では、通信部13を介して情報端末2から送られた音声ファイルを受信すると、音声取得部33aが音声データを取得する(S62)。続いて、音声認識部33bが音声データを音声認識すると(S63)、シナリオ選択部33cが対話シナリオDB32を参照して認識された音声(認識ワード)に対応する対話シナリオを選択する(S64)。続いて、音声ファイル生成部33dが選択された対話シナリオに基づいて音声ファイルを生成する(S65)。音声ファイル出力部33eが音声ファイルを出力すると、主制御部10aは、通信部13を介してユーザの情報端末2に送信する(S66)。   In the server apparatus 1, when the audio file sent from the information terminal 2 is received via the communication unit 13, the audio acquisition unit 33a acquires the audio data (S62). Subsequently, when the voice recognition unit 33b recognizes the voice data (S63), the scenario selection unit 33c selects a dialogue scenario corresponding to the voice (recognition word) recognized with reference to the dialogue scenario DB 32 (S64). Subsequently, the audio file generation unit 33d generates an audio file based on the selected dialogue scenario (S65). When the audio file output unit 33e outputs the audio file, the main control unit 10a transmits it to the user information terminal 2 via the communication unit 13 (S66).

情報端末2では、この音声ファイルを通信部22にて受信すると(S67)、先に送られて記憶保持している動画データと同期させて音声出力部27より音声出力し(S68)、図13のステップS42以降の処理にリターンする。これ以後、ステップ43の判断に基づいて、対話が繰り返される。   In the information terminal 2, when this voice file is received by the communication unit 22 (S 67), the voice output unit 27 outputs the voice in synchronism with the moving image data previously sent and stored (S 68). The process returns to step S42 and subsequent steps. Thereafter, the dialogue is repeated based on the determination in step 43.

以上説明したように、本発明の第2実施形態によれば、ユーザは経年変化した画像にシチュエーション画像を合成した自分の未来像を確認できることに加えて、その未来像に対して各種の質問、投げかけをすることで、より印象強い対話が生まれる。これは、そうなりたいという願望へとつながり、その後の学習意欲、トレーニング意欲の向上をもたらすことになる。   As described above, according to the second embodiment of the present invention, the user can confirm his / her future image obtained by combining the situation image with the aged image, and various questions about the future image, By throwing, a more impressive dialogue is born. This leads to the desire to do so, and will improve the willingness to learn and training thereafter.

<第3実施形態> <Third Embodiment>

図16には本発明の第3実施形態に係る未来像提示システムのサーバ装置の構成を示し説明する。ここでは、図2と同一構成については同一符号を付し、異なる部分を中心に説明を進める。   FIG. 16 shows the configuration of the server device of the future image presentation system according to the third embodiment of the present invention. Here, the same components as those in FIG. 2 are denoted by the same reference numerals, and the description will be focused on different parts.

同図に示されるように、サーバ装置40は、記憶部12の制御プログラム41を読み出し実行することで、図2の機能に加えて、シチュエーション選択部10iとしても機能する。このシチュエーション選択部10iは、ユーザの属性データに基づいてシチュエーションを選択するものである。属性データとしては、上述したものに加えて、ユーザの嗜好性、身体的特徴、得意不得意な科目、及び性格の少なくともいずれかを含む。   As shown in the figure, the server device 40 functions as the situation selection unit 10i in addition to the functions of FIG. 2 by reading and executing the control program 41 of the storage unit 12. This situation selection part 10i selects a situation based on a user's attribute data. The attribute data includes at least one of the user's preference, physical characteristics, weak subject, and personality in addition to the above.

図17(a)乃至図17(d)にはシチュエーション選択部による選択時に参照されるユーザの属性情報を示し説明する。これらは、所定の選択入力画面よりユーザの情報端末にて選択入力されるようにしてよい。選択入力された属性データは、サーバ装置1側でユーザDB14に格納される。   FIG. 17A to FIG. 17D show user attribute information that is referred to when selected by the situation selection unit. These may be selected and input at the user information terminal from a predetermined selection input screen. The selected and input attribute data is stored in the user DB 14 on the server device 1 side.

図17(a)のテーブルは、ユーザの嗜好性を判定するためのもので、各質問にYes/Noで答えてもらうことで、ユーザの嗜好性を探ることができる。図17(b)のテーブルは、ユーザの身体的特徴を判定するためのもので、各質問に3段階で答えてもらうことで、身体的特徴を探ることができる。図17(c)のテーブルは、ユーザの得意不得意科目を判定するためのもので、各質問に対して好き、ふつう、嫌いと、1日に使う時間を得ることで、得意不得意かもくから文系向きか理系向きかを探ることができる。そして図17(d)のテーブルは、ユーザの性格を判定するためのもので、各質問にYes/Noで答えてもらうことで、ユーザの性格を探ることができる。   The table in FIG. 17A is for determining the user's preference. The user's preference can be searched by having each question answered with Yes / No. The table in FIG. 17B is for determining the physical characteristics of the user, and the physical characteristics can be searched by having each question answered in three stages. The table in FIG. 17 (c) is for determining the subjects that the user is not good at. If you like, normally, or dislike each question, you may be good at acquiring the time to use per day. You can explore whether it is for humanities or science. The table in FIG. 17D is for determining the user's personality, and the user's personality can be searched by having each question answered with Yes / No.

このようなテーブルを参照して、質問画面を生成し、ユーザに入力を促せば、ユーザの嗜好性、身体的特徴、文系/理系、性格の属性データを得ることができるので、これら属性データに基づいて多面的にユーザに好適なシチュエーションを選び出すことも可能となる。その場合、シチュエーションDB15のシチュエーションIDと各属性データとの関係を紐づけておけば、選択アルゴリズムが実現される。   By generating a question screen by referring to such a table and prompting the user to input, it is possible to obtain attribute data of the user's preference, physical characteristics, literary / science, and personality. Based on this, it is possible to select a situation suitable for the user from various aspects. In that case, if the relationship between the situation ID of the situation DB 15 and each attribute data is linked, a selection algorithm is realized.

以上説明したように、本発明の第3実施形態によれば、例えば、ユーザの嗜好性、身体的特徴、文系/理系、性格の属性データに基づいて、ユーザにふさわしいシチュエーションを選択することができるので、経年変化画像と合成されるシチュエーションの画像データについても好適なものが選択され、よりインパクトのある未来像をユーザに提示することが可能となる。これは、そのシチュエーションに自らを将来導きたいという強い意志を生み、その後の学習意欲、トレーニング意欲の向上をもたらすことになる。   As described above, according to the third embodiment of the present invention, for example, a situation suitable for the user can be selected based on the user's preference, physical characteristics, literary / science, and personality attribute data. Therefore, suitable image data of the situation to be synthesized with the secular change image is selected, and it becomes possible to present a more impactful future image to the user. This gives rise to a strong willingness to guide himself to the situation in the future, and will improve his willingness to learn and train.

以上説明した本発明の第1乃至第3の実施形態において、ユーザの情報端末をヘッドマウンテッドディスプレイ(HMD;Head Mounted Display)として、経年変化した動画や静止画を再生してもよい。その場合、ユーザが選択したシチュエーションに置かれた状況を3Dで再現し、ユーザにその立場で見える景色、環境を提示し、鏡を覗き込んだときに経年変化した自分の姿が見えるようにすることもできる。また、対話処理を実施するときに出力音声をユーザの音声を経年変化させた音声として、将来の自分と対話しているかのごとき臨場感を与えることもできる。音声の経年変化については、例えば音域、音階を実年齢と選択年齢との関係に基づいて下げるなど、種々の手法を採用できる。   In the first to third embodiments of the present invention described above, a user's information terminal may be used as a head mounted display (HMD) to reproduce a moving image or a still image that has changed over time. In that case, the situation placed in the situation selected by the user is reproduced in 3D, the scenery and environment that can be seen from the standpoint are presented to the user, and the self-changed appearance can be seen when looking into the mirror. You can also. In addition, it is possible to give a sense of realism as if the user is talking with himself / herself in the future by using the output voice when the dialog processing is performed as the voice obtained by changing the user's voice over time. As for the aging change of speech, various methods such as lowering the range and scale based on the relationship between the actual age and the selected age can be adopted.

以上、本発明の一実施形態について説明したが、本発明はこれに限定されることなくその趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。   Although one embodiment of the present invention has been described above, the present invention is not limited to this, and it is needless to say that various improvements and changes can be made without departing from the spirit of the present invention.

例えば、わが子の画像データや年齢等の属性データを入力し、経年変化されたわが子の画像にシチュエーション画像を合成して生成したファイルを、わが子の情報端末にプレゼントとして贈るような用途にも適用可能である。   For example, it can be applied to applications such as inputting child image data and attribute data such as age, etc., and presenting a file generated by synthesizing a situation image to the child image that has changed over time as a gift to the child's information terminal. It is.

また、子供の画像データの経年変化のほか、高校への進学、大学への進学、就職、成人の転職、願望達成、老後や終活まで、様々な年齢やシュ チュエーションでも、本発明は適用可能である。また、親がわが子にプレゼントというような本人以外の活用もできることは勿論である。たとえば、祖父母の孫の成人姿を見てみたいというニーズや、アイドルファンがアイドルの経年人相画を見てみたいというニーズなど、多種多様の活用が可能であることは勿論である。   In addition to changes in children's image data, the present invention can also be applied to various ages and situations, from going on to high school, going on to college, getting a job, changing jobs, fulfilling a desire, retirement and life-long life. It is. Of course, the parent can also make use of something other than the person himself as a gift for my child. For example, it is of course possible to use a wide variety of applications, such as the need to see the adult appearance of grandparents' grandchildren, and the need for idol fans to see the idol's aged person.

1…サーバ装置、2…情報端末、3…ネットワーク、10…制御部、10a…主制御部、10b…画像取得部、10c…経年変化処理部、10d…画像合成部、10e…ファイル生成部、10f…集計部、10g…対話部、10h…対話画像変換処理部、10i…シチュエーション選択部、11…制御プログラム、12…記憶部、13…通信部、14…ユーザDB、15…シチュエーションDB、16…集計結果DB、17…通信バス、20…制御部、20a…主制御部、20b…ブラウザ部、20c…表示制御部、21…記憶部、22…通信部、23…タッチパネル、24…表示部、25…操作部、26…音声入力部、27…音声出力部、28…通信バス、29…カメラ部、30…サーバ装置、31…制御プログラム、32…対話シナリオDB、33a…音声取得部、33b…音声認識部、33c…シナリオ選択部、33d…音声ファイル生成部、33e…音声ファイル出力部、40…サーバ装置、41…制御プログラム。   DESCRIPTION OF SYMBOLS 1 ... Server apparatus, 2 ... Information terminal, 3 ... Network, 10 ... Control part, 10a ... Main control part, 10b ... Image acquisition part, 10c ... Aging process part, 10d ... Image composition part, 10e ... File generation part, 10f ... Totaling unit, 10g ... Dialogue unit, 10h ... Dialogue image conversion processing unit, 10i ... Situation selection unit, 11 ... Control program, 12 ... Storage unit, 13 ... Communication unit, 14 ... User DB, 15 ... Situation DB, 16 Reference result DB, 17 Communication bus, 20 Control unit, 20a Main control unit, 20b Browser unit, 20c Display control unit, 21 Storage unit, 22 Communication unit, 23 Touch panel, 24 Display unit , 25 ... operation unit, 26 ... voice input unit, 27 ... voice output unit, 28 ... communication bus, 29 ... camera unit, 30 ... server device, 31 ... control program, 32 ... dialog scenario B, 33a ... sound acquisition unit, 33b ... speech recognition unit, 33c ... scenario selector, 33d ... audio file generating section, 33e ... audio file output unit, 40 ... server, 41 ... control program.

Claims (10)

ユーザの情報端末と通信する通信手段と、
上記通信手段を介してユーザの画像データを取得する画像取得手段と、
上記画像データを経年変化させる経年変化処理手段と、
上記経年変化させた画像データにシチュエーションの画像データを合成する画像合成手段と、
上記合成された画像データを含むファイルを生成するファイル生成手段と、
上記ファイルを、上記通信手段を介して上記ユーザの情報端末に送信するように制御する制御手段と、を備えた
サーバ装置。
A communication means for communicating with the user's information terminal;
Image acquisition means for acquiring user image data via the communication means;
Aging processing means for aging the image data;
Image combining means for combining the image data of the situation with the image data changed over time,
File generation means for generating a file including the synthesized image data;
Control means for controlling the file to be transmitted to the information terminal of the user via the communication means.
複数のシチュエーションに係る画像データ、テキストデータ、及び音声データを記憶したシチュエーション記憶手段を更に備え、
上記ファイル生成手段は、上記合成された画像データと、テキストデータ及び音声データの少なくともいずれかと、を含むファイルを生成する
請求項1に記載のサーバ装置。
It further comprises situation storage means for storing image data, text data, and audio data relating to a plurality of situations,
The server device according to claim 1, wherein the file generation unit generates a file including the synthesized image data and at least one of text data and audio data.
上記通信手段を介して音声データを取得する音声取得手段と、
上記音声データを音声認識する音声認識手段と、
上記認識された音声に対応するシナリオを選択するシナリオ選択手段と、
上記選択されたシナリオに基づいて音声ファイルを生成する音声ファイル生成手段と、
上記音声ファイルを出力する音声ファイル出力手段と、を更に備え、
上記制御手段は、上記音声ファイルを、上記通信手段を介して上記ユーザの情報端末に送信するように制御する
請求項1又は請求項2に記載のサーバ装置。
Voice acquisition means for acquiring voice data via the communication means;
Voice recognition means for voice recognition of the voice data;
Scenario selecting means for selecting a scenario corresponding to the recognized voice;
Audio file generating means for generating an audio file based on the selected scenario,
Audio file output means for outputting the audio file, and
The server device according to claim 1, wherein the control unit controls the audio file to be transmitted to the information terminal of the user via the communication unit.
上記シチュエーションごとに、上記認識された音声に対応するシナリオを複数記憶した対話シナリオ記憶手段を更に備えた
請求項3に記載のサーバ装置。
The server apparatus according to claim 3, further comprising a dialogue scenario storage unit that stores a plurality of scenarios corresponding to the recognized voices for each situation.
上記ユーザの属性情報に基づいて上記シチュエーションを選択するシチュエーション選択手段を更に備え、
上記属性情報とは、上記ユーザの嗜好性、身体的特徴、得意不得意な科目、及び性格の少なくともいずれかである
請求項1乃至請求項4のいずれか1項に記載のサーバ装置。
Further comprising situation selection means for selecting the situation based on the attribute information of the user,
The server apparatus according to any one of claims 1 to 4, wherein the attribute information is at least one of the user's preference, physical characteristics, weak subject, and personality.
上記ユーザと上記シチュエーションとの関係を集計する集計部を更に備え、
上記集計部は、上記通信手段を介して上記ユーザの年齢情報を取得し、
複数のユーザについて、年齢とシチュエーションとの関係を集計し、年代別になりたい職業のランキング表を生成する
請求項1乃至請求項5のいずれか1項に記載のサーバ装置。
And further comprising a counting unit for counting the relationship between the user and the situation,
The counting unit obtains the age information of the user via the communication means,
The server apparatus according to any one of claims 1 to 5, wherein, for a plurality of users, the relationship between the age and the situation is totaled to generate a ranking table of occupations desired to be classified by age.
ユーザの情報端末とサーバ装置とからなる未来像提示システムであって、
上記情報端末は、
上記サーバ装置と通信する第1通信手段と、
表示を行う表示手段と、
上記第1通信手段を介して上記ユーザの画像データを送信するよう制御する第1制御手段と、を備え、
上記サーバ装置は、
上記情報端末と通信する第2通信手段と、
上記第2通信手段を介してユーザの画像データを取得する画像取得手段と、
上記画像データを経年変化させる経年変化処理手段と、
上記経年変化させた画像データにシチュエーションの画像データを合成する画像合成手段と、
上記合成された画像データを含むファイルを生成するファイル生成手段と、
上記ファイルを、上記第2通信手段を介して上記情報端末に送信するように制御する第2制御手段と、を備え、
上記情報端末では、上記第1通信手段を介して上記サーバ装置からの上記ファイルを受信し、上記ファイルに基づく表示を上記表示手段にて行うことで、上記ユーザに所定のシチュエーションに置かれた未来の自分の姿を提示する
未来像提示システム。
A future image presentation system comprising a user information terminal and a server device,
The above information terminal
First communication means for communicating with the server device;
Display means for displaying; and
First control means for controlling to transmit the image data of the user via the first communication means,
The server device is
A second communication means for communicating with the information terminal;
Image acquisition means for acquiring user image data via the second communication means;
Aging processing means for aging the image data;
Image combining means for combining the image data of the situation with the image data changed over time,
File generation means for generating a file including the synthesized image data;
Second control means for controlling the file to be transmitted to the information terminal via the second communication means,
The information terminal receives the file from the server device via the first communication means, and performs display based on the file on the display means, so that the user is placed in a predetermined situation. A future image presentation system that presents your own personality.
上記サーバ装置は、
複数のシチュエーションに係る画像データ、テキストデータ、及び音声データを記憶したシチュエーション記憶手段を更に備え、
上記ファイル生成手段は、上記合成された画像データと、テキストデータ及び音声データの少なくともいずれかと、を含むファイルを生成する
請求項7に記載の未来像提示システム。
The server device is
It further comprises situation storage means for storing image data, text data, and audio data relating to a plurality of situations,
The future image presentation system according to claim 7, wherein the file generation unit generates a file including the synthesized image data and at least one of text data and audio data.
上記サーバ装置は、
上記第2通信手段を介して音声データを取得する音声取得手段と、
上記音声データを音声認識する音声認識手段と、
上記認識された音声に対応するシナリオを選択するシナリオ選択手段と、
上記選択されたシナリオに基づいて音声ファイルを生成する音声ファイル生成手段と、
上記音声ファイルを出力する音声ファイル出力手段と、を更に備え、
上記第2制御手段は、上記音声ファイルを、上記第2通信手段を介して上記ユーザの情報端末に送信するように制御する
請求項7又は請求項8に記載の未来像提示システム。
The server device is
Voice acquisition means for acquiring voice data via the second communication means;
Voice recognition means for voice recognition of the voice data;
Scenario selecting means for selecting a scenario corresponding to the recognized voice;
Audio file generating means for generating an audio file based on the selected scenario,
Audio file output means for outputting the audio file, and
The future image presentation system according to claim 7 or 8, wherein the second control unit controls the audio file to be transmitted to the information terminal of the user via the second communication unit.
ユーザの情報端末とサーバ装置による未来像提示方法であって、
上記情報端末が、上記ユーザの画像データを上記サーバ装置に送信するステップと、
上記サーバ装置が、上記ユーザの画像データを取得するステップと、
上記サーバ装置が、上記画像データを経年変化させ、経年変化させた画像データにシチュエーションの画像データを合成し、合成された画像データを含むファイルを生成するステップと、
上記サーバ装置が、上記ファイルを上記情報端末に送信するステップと、
上記情報端末が、上記サーバ装置からの上記ファイルを受信し、上記ファイルに基づく表示を行うことで、上記ユーザに所定のシチュエーションに置かれた未来の自分の姿を提示するステップと、を有する
未来像提示方法。
A future image presentation method by a user information terminal and a server device,
The information terminal transmitting the image data of the user to the server device;
The server device acquiring image data of the user;
The server device changes the image data over time, combines the image data of the situation with the image data changed over time, and generates a file including the combined image data;
The server device transmitting the file to the information terminal;
The information terminal receives the file from the server device, and presents the future figure placed in a predetermined situation to the user by performing display based on the file. Image presentation method.
JP2015190548A 2015-09-29 2015-09-29 Future image presentation system, future image presentation method and server device Pending JP2017068388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015190548A JP2017068388A (en) 2015-09-29 2015-09-29 Future image presentation system, future image presentation method and server device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015190548A JP2017068388A (en) 2015-09-29 2015-09-29 Future image presentation system, future image presentation method and server device

Publications (1)

Publication Number Publication Date
JP2017068388A true JP2017068388A (en) 2017-04-06

Family

ID=58492683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015190548A Pending JP2017068388A (en) 2015-09-29 2015-09-29 Future image presentation system, future image presentation method and server device

Country Status (1)

Country Link
JP (1) JP2017068388A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729469A (en) * 2017-10-12 2018-02-23 北京小度信息科技有限公司 Usage mining method, apparatus, electronic equipment and computer-readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729469A (en) * 2017-10-12 2018-02-23 北京小度信息科技有限公司 Usage mining method, apparatus, electronic equipment and computer-readable recording medium

Similar Documents

Publication Publication Date Title
Kane et al. What we talk about: designing a context-aware communication tool for people with aphasia
Boster et al. Designing augmentative and alternative communication applications: The results of focus groups with speech-language pathologists and parents of children with autism spectrum disorder
Alliano et al. A review of 21 iPad applications for augmentative and alternative communication purposes
Cavallo Seeing the word, hearing the image: the artistic possibilities of audio description in theatrical performance
Awan et al. Creative and visual methods in audience research
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
Pauletto Film and theatre-based approaches for sonic interaction design
JP2017068388A (en) Future image presentation system, future image presentation method and server device
Pölzer et al. Presenting non-verbal communication to blind users in brainstorming sessions
Beauchamp et al. Using video to research outdoors with young children
JP7152453B2 (en) Information processing device, information processing method, information processing program, and information processing system
JP2023000937A (en) Pseudo-interview system, pseudo-interview method, pseudo-interview apparatus, and program
Harris et al. Puzzling pieces: a sensory design learning tool
Baskara Humanistic language learning in the 21st century classroom: A brief look at practice and application
Thrasher Meeting in the Metaverse: Language Learners’ Insights into the Affordances of Virtual Reality
JP2021043723A (en) Information processing apparatus, information processing method, and program
JP7434451B2 (en) Information processing device, information processing method, and information processing program
Hallewell et al. Play&tune: user feedback in the development of a serious game for optimizing hearing aid orientation
JP7473270B1 (en) Learning support system and learning support method
JP7290977B2 (en) Program and information processing device
WO2023175704A1 (en) Online conference system, method for controlling online conference system, and program
Erincin Pedagogies of Praxis: Exercises in Embodying Social Justice for Performance Studies Seminars
WO2021140800A1 (en) Communication assistance system and communication assistance program
Hafez et al. Training Elderly with Mild Cognitive Impairment to Use The Seniorbook App: A Second Pilot Study
Esteves et al. Designing Audio-Based Multimodal Interfaces for English Teaching: A Conceptual Model Based on an Integrative Literature Review