JP4546125B2 - Interface presenting method and interface presenting system - Google Patents

Interface presenting method and interface presenting system Download PDF

Info

Publication number
JP4546125B2
JP4546125B2 JP2004086903A JP2004086903A JP4546125B2 JP 4546125 B2 JP4546125 B2 JP 4546125B2 JP 2004086903 A JP2004086903 A JP 2004086903A JP 2004086903 A JP2004086903 A JP 2004086903A JP 4546125 B2 JP4546125 B2 JP 4546125B2
Authority
JP
Japan
Prior art keywords
information
user
interface
cyber
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004086903A
Other languages
Japanese (ja)
Other versions
JP2005275710A (en
Inventor
ニコライ・ミレンコフ
哲也 廣冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Aizu
Original Assignee
University of Aizu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Aizu filed Critical University of Aizu
Priority to JP2004086903A priority Critical patent/JP4546125B2/en
Publication of JP2005275710A publication Critical patent/JP2005275710A/en
Application granted granted Critical
Publication of JP4546125B2 publication Critical patent/JP4546125B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、インターフェース提示方法及びインターフェース提示システムに関する。 The present invention relates to an interface presentation method and an interface presentation system .

コンピュータを介した情報伝達方法は、電子メール,チャット,ビデオ会議,機械の遠隔制御等がある。また、情報を入出力する主体としては、仮想世界および実世界のオブジェクト(人間,コンピュータ,ロボット,電子機器,画面内のキャラクタ等)が考えられる。   Information transmission methods via computers include electronic mail, chat, video conferencing, remote control of machines, and the like. In addition, as subjects that input and output information, virtual world and real world objects (humans, computers, robots, electronic devices, characters in a screen, etc.) can be considered.

上記の主体とコンピュータとの中間には、情報を入出力するためのインターフェースが設けられている。インターフェースとは、上記の主体とコンピュータとが対話を行うためのハードウェア又はソフトウェア的な接点をいう。例えば特許文献1には、コンピュータを介して、人間と人間とが意志伝達を行う方法およびインターフェースの技術的内容が記載されている。
特開2003−84876号公報
An interface for inputting and outputting information is provided between the main body and the computer. The interface refers to a hardware or software contact for the above-mentioned main body and a computer to interact. For example, Patent Document 1 describes the technical contents of a method and an interface in which a person and a person communicate with each other via a computer.
JP 2003-84876 A

従来、コンピュータに設けられているインターフェースは、そのコンピュータを操作するユーザの操作履歴,ユーザによるカスタマイズ要求などにより、各ユーザへの適応を図る機能が採用されている。   2. Description of the Related Art Conventionally, an interface provided in a computer has adopted a function of adapting to each user based on an operation history of a user who operates the computer, a customization request by a user, and the like.

しかしながら、従来のインターフェースに採用されている各ユーザへの適応を図る機能は、情報伝達を行う主体の汎用性,カスタマイズ要求の煩雑さ,主体に提示する情報の系統的な適応,主体に提示するインターフェースの系統的な適応,主体に提示する情報およびインターフェースの系統的な説明など、上記の何れかの点で問題があった。
本発明は、上記の点に鑑みなされたもので、仮想世界および実世界の多様な主体を対象とすることができ、系統的に主体への適応が図られたインターフェースの提示を容易に実現できる、インターフェース提示方法及びインターフェース提示システムを提供することを目的とする。
However, the functions for adapting to each user that are adopted in the conventional interface are generality of the information transmission subject, complexity of customization request, systematic adaptation of information presented to the subject, and presenting to the subject There were problems in any of the above points, such as systematic adaptation of the interface, information presented to the subject, and systematic explanation of the interface.
The present invention has been made in view of the above, the virtual world and various entities in the real world can be targeted to, systematically presented interface adaptation is achieved to the principal readily It is an object to provide an interface presentation method and an interface presentation system that can be realized.

上記課題を解決するため、本発明は仮想世界および実世界のオブジェクトおよびプロセスの一つ以上の特徴を表すデータ群からユーザに適応したデータを操作または閲覧させるインターフェースを、ユーザが操作または閲覧するコンピュータに提示させるインターフェース提示方法であって、前記コンピュータが、前記ユーザに関するプロファイル情報,動作情報,場所情報,時間情報,理由情報および手段・方法情報の少なくとも一つから成る特異情報が格納された第1格納手段から、前記特異情報を呼び出す第1ステップと、前記インターフェースを表すフレームと、前記フレームを意味および機能の少なくとも一つでグループ化したシーンと、前記シーンをまとめたフィルムとを有する、前記インターフェースの集合であるインターフェース群が格納された第2格納手段から、前記特異情報に基づき、前記ユーザに適した前記フィルム、前記シーンおよび前記フレームを選択する第2ステップと、前記第2ステップで選択した前記フレームに対し、前記特異情報に基づき、一度に提示する前記オブジェクトおよびプロセスの数、配置、提示順序、および提示時間の少なくとも一つを定める前記ユーザに対する適応処理を行う第3ステップと、前記第3ステップで適応処理の結果に従い、前記第2ステップで選択した前記フレームを前記ユーザから入力される入力情報に係わらず提示するか、または、前記入力情報に応じ、前記フレームを変化させて提示する第4ステップとを実行することを特徴とする。 In order to solve the above-described problems, the present invention provides a computer that allows a user to operate or browse an interface that allows the user to operate or browse data adapted to the user from data groups representing one or more features of virtual and real world objects and processes. The interface presenting method is a first method in which the computer stores unique information including at least one of profile information, operation information, location information, time information, reason information, and means / method information about the user. The interface comprising: a first step of calling the specific information from a storage means; a frame representing the interface; a scene in which the frame is grouped by at least one of meaning and function; and a film in which the scenes are collected. it is a set of interferon Second storage means over the scan group is stored, based on the specific information, the film suitable for the user, a second step of selecting the scene and the frame, the frame selected in the second step On the other hand, based on the specific information, a third step of performing an adaptive process for the user for determining at least one of the number of objects and processes to be presented at one time, arrangement, presentation order, and presentation time, and the third step The frame selected in the second step is presented regardless of the input information input from the user, or the frame is changed according to the input information and presented in accordance with the result of the adaptive processing in 4 steps are executed .

また、本発明は上記記載のインターフェース提示方法を実行するインターフェース提示システムであることを特徴とする。 The present invention also characterized in that an interface presentation system to perform the interface presenting the above-described method.

発明では第1格納手段にユーザに関する特異情報,第2格納手段に仮想世界および実世界のオブジェクトの少なくとも一つから成るインターフェース群が格納されており、ユーザに関する特異情報に基づき、ユーザに適したインターフェースの決定及び適応処理を行うことにより、系統的にユーザへの適応が図られたインターフェースをユーザに提示する。 In the present invention, the first storage means stores specific information about the user, and the second storage means stores an interface group consisting of at least one of the virtual world and real world objects, and is suitable for the user based on the specific information about the user. By performing interface determination and adaptation processing, an interface systematically adapted to the user is presented to the user.

本発明は、仮想世界および実世界の多様な主体として人間または機械を対象とすることができ、系統的に人間または機械への適応が図られたインターフェースの提示を容易に実現できる。また、本発明は煩雑なカスタマイズ要求を不要とすることができる。さらに、本発明は系統的に人間または機械への適応が図られたインターフェースの説明を容易に提示できる。 The present invention, a human or machine can be targeted, systematic presentation adaptation of interfaces that achieved in the human or machine can be easily realized as various entities of the virtual world and the real world. Further, the present invention can eliminate a complicated customization request. Furthermore, the present invention can easily provide a systematic human or interface adaptation is achieved in the machine description.

この結果、系統的に主体への適応が図られたインターフェースを用いて人間または機械とコンピュータとの間で情報をやり取りできる。 As a result, it can exchange information with a human or machine and the computer using an interface adaptation is achieved to systematically principal.

本発明によれば、仮想世界および実世界の多様な主体を対象とすることができ、系統的に主体への適応が図られたインターフェースの提示を容易に実現できる。 According to the present invention, the virtual world and the real various entities in the world can be targeted, systematic presentation adaptation of interfaces that achieved in the principal can be easily realized.

以下、本発明の一実施形態に係るインターフェース提示方法について説明する。まず、この方法の実施に用いるデータおよびインターフェースを提示するシステムの概要を図1により説明する。
(システム構成)
このシステムの構成する要素について説明する。このシステムは、特異情報DB1、データ提示機能ブロック2、インターフェース提示機能ブロック3及び各機能要素を結ぶバスを備えている。
The following describes engagement Louis centers face presentation method in an embodiment of the present invention. First, an outline of a system for presenting data and an interface used for implementing this method will be described with reference to FIG.
(System configuration)
The elements constituting this system will be described. This system includes a unique information DB 1, a data presentation function block 2, an interface presentation function block 3, and a bus connecting each functional element.

特異情報DB1は、人間または機械8に関する特異情報を格納する部分である。人間または機械8に関する特異情報は、ユーザ14に関する特異情報も含む。特異情報とは、人間または機械自身の情報およびそれらを取り巻く環境に関する情報である。   The singular information DB 1 is a part that stores singular information regarding the person or the machine 8. Specific information regarding the human or the machine 8 includes specific information regarding the user 14. Singular information is information about a person or a machine itself and information about the environment surrounding them.

データ提示機能ブロック2は、人間または機械8に適応を図ったデータの提示を行う部分であり、データ群DB4、データフィルタリング装置5、データ編成装置6、コンピュータ7により構成される。データ群DB4は、仮想世界および実世界のオブジェクトやプロセス(以下、サイバーオブジェクトおよびサイバープロセスと記述する)の一つ以上の特徴を表すデータ群を格納する。データフィルタリング装置5は、特異情報DB1に格納されている特異情報に基づき、データ群DB4から、主体である人間または機械8に必要なデータを呼び出す。データ編成装置6は、主体に関する特異情報に基づき、フィルタリングにより呼び出したデータを編成し、主体に提示する順序を決定する。コンピュータ7は、編成され順序を決定されたデータを主体に提示し、その提示に関して主体から与えられる情報を処理し、特異情報DB1にフィードバックする。   The data presentation function block 2 is a part for presenting data adapted to a human or a machine 8 and includes a data group DB 4, a data filtering device 5, a data organization device 6, and a computer 7. The data group DB 4 stores a data group representing one or more characteristics of virtual world and real world objects and processes (hereinafter referred to as cyber objects and cyber processes). Based on the specific information stored in the specific information DB1, the data filtering device 5 calls the data necessary for the human or machine 8 that is the subject from the data group DB4. The data organization device 6 organizes the data called by filtering based on the specific information about the subject and determines the order of presentation to the subject. The computer 7 presents the data organized and determined in order to the subject, processes information given from the subject regarding the presentation, and feeds back to the unique information DB 1.

インターフェース提示機能ブロック3は、提示されたデータを操作・閲覧するため、ユーザ14に適応を図ったインターフェースの提示を行う部分であり、インターフェース群DB9、インターフェースフィルタリング装置10、インターフェース編成装置11、コンピュータ12、入出力装置13により構成される。インターフェース群DB9は、少なくとも一つのサイバーオブジェクトから成るインターフェース群に関するデータを格納する。インターフェースフィルタリング装置10は、特異情報DB1に格納されている特異情報に基づき、インターフェース群DB9からユーザ14に適したインターフェースに関するデータを呼び出す。インターフェース編成装置11は、ユーザ14に関する特異情報に基づき、フィルタリングにより呼び出したデータに対し、ユーザ14に適応を行い、ユーザ14に適したインターフェースを編成する。コンピュータ12は、編成されたインターフェースをユーザ14に提供するため、制御情報を入出力装置13に供給し、また入出力装置13から与えられる情報を処理し、特異情報DB1にフィードバックする。入出力装置13は、与えられた制御情報に基づきインターフェースをユーザ14に提示し、コンピュータ12とユーザ14の間で情報のやり取りを行わせる。   The interface presentation function block 3 is a part that presents an interface adapted to the user 14 in order to operate and browse the presented data. The interface group DB 9, the interface filtering device 10, the interface organization device 11, and the computer 12 The input / output device 13 is configured. The interface group DB 9 stores data related to an interface group including at least one cyber object. The interface filtering device 10 calls data related to an interface suitable for the user 14 from the interface group DB 9 based on the unique information stored in the unique information DB 1. The interface organization device 11 adapts the user 14 to the data called by filtering based on the specific information about the user 14 and organizes an interface suitable for the user 14. The computer 12 supplies control information to the input / output device 13 to provide the organized interface to the user 14, processes information provided from the input / output device 13, and feeds it back to the singular information DB 1. The input / output device 13 presents an interface to the user 14 based on the given control information, and exchanges information between the computer 12 and the user 14.

これらの構成要素は、互いに離間した位置に存在しても良い。その場合、これらの構成要素はネットワークにより接続される。   These components may exist at positions separated from each other. In that case, these components are connected by a network.

以下、特異情報DB1に格納されている特異情報、データ提示機能ブロック2を用いたデータ提示方法およびインターフェース提示機能ブロック3を用いたインターフェース提示方法について詳細に説明する。
(特異情報)
人間または機械に関する特異情報は、プロファイル情報、動作情報、場所情報、時間情報、理由情報および手段・方法情報の少なくとも一つを備えている。
Hereinafter, the unique information stored in the unique information DB1, the data presentation method using the data presentation function block 2, and the interface presentation method using the interface presentation function block 3 will be described in detail.
(Unique information)
Specific information relating to humans or machines includes at least one of profile information, operation information, location information, time information, reason information, and means / method information.

プロファイル情報は、人間や機械の固有情報を表し、名前や所属、認知能力などのデータ項目で構成される。動作情報は、人間や機械の活動に関する情報を表し、現在行っている活動の種類や活動の履歴などのデータ項目で構成される。場所情報は、人間や機械の地理的な情報を表し、緯度、経度、高度、屋内・屋外などのデータ項目で構成される。時間情報は、人間や機械の日時に関する情報を表し、実世界および仮想世界における現在時などのデータ項目で構成される。理由情報は、人間や機械が活動を行う動機に関する情報を表し、理由、目的、条件、状況などのデータ項目で構成される。手段・方法情報は、プロファイル情報、動作情報、場所情報、時間情報、理由情報に含まれない人間や機械が活動を行うために必要な情報を表し、使用している入出力装置やセンサ、ネットワーク、言語などのデータ項目で構成される。   Profile information represents information unique to humans and machines, and is composed of data items such as name, affiliation, and cognitive ability. The operation information represents information related to the activities of humans and machines, and is composed of data items such as the type of activity currently being performed and the history of the activity. The location information represents geographical information of humans and machines, and is composed of data items such as latitude, longitude, altitude, indoor / outdoor. The time information represents information related to the date and time of humans and machines, and is composed of data items such as the current time in the real world and the virtual world. The reason information represents information related to the motives of human or machine activities, and is composed of data items such as reason, purpose, condition, and situation. Means / method information represents information necessary for humans and machines to perform activities that are not included in profile information, operation information, location information, time information, and reason information. I / O devices, sensors, and networks used It consists of data items such as language.

これらのデータ項目は、人間が操作した入出力装置、もしくはそれ以外の装置、例えば、ロボット、GPS、センサなどによって入力されたデータ、履歴、統計などのコンピュータによって収集されたデータにより決定される。例えば、名前や所属、使用言語は人間が直接入力、現在地の緯度、経度はGPSによって入力、活動の履歴はコンピュータが自動収集することにより与えられる。   These data items are determined by input / output devices operated by humans or other devices such as data input by a robot, GPS, sensors, etc., data collected by a computer such as history and statistics. For example, the name, affiliation, and language used are directly input by humans, the latitude and longitude of the current location are input by GPS, and the activity history is provided by automatic collection by a computer.

なお、特異情報を構成するプロファイル情報、動作情報など各情報に含まれるデータ項目、その入力方法および更新頻度などは、ユーザが実行を指示したアプリケーションに応じて、変化するようにしても良い。   Note that the data items included in each information such as profile information and operation information constituting the unique information, the input method, the update frequency, and the like may be changed according to the application instructed to be executed by the user.

本発明のインターフェース提示方法では、人間または機械に関する特異情報をプロファイル情報、動作情報など、上記枠組みで管理し、随時、参照または更新することにより、人間または機械への適応が図られたインターフェースの提示を容易に実現することが出来る。 The interface presentation method of the present invention, a human or profile information specific information about the machine, such as operation information, managed by the framework, at any time, refer or by updating, Lee adaptation to human or machine has been achieved Interface can be easily realized.

例えば、プロファイル情報の認知能力を参照することにより、視覚障害者には聴覚情報を、聴覚障害者には視覚情報を主としたデータおよびインターフェースを提示することが可能である。また、手段・方法情報の使用しているセンサやネットワークを参照することにより、機械に気温を調べる命令を与える場合、温度センサを接続していればセンサから情報を取得、ネットワークが使用可能であればインターネット上の情報から取得、両方利用可能であれば双方の情報を比較検討することで気温を決定など、それぞれの機械とそれらを取り巻く環境に適した命令を容易に与えることが可能である。
(データ提示方法)
以下、データ提示方法について図1を用いて説明する。まず、データ群DB4について説明を行う。
For example, by referring to the recognition ability of profile information, it is possible to present data and an interface mainly for auditory information to visually impaired people and visual information to visually impaired people. In addition, when referring to the sensor or network used in the method / method information to give a command to check the temperature to the machine, if the temperature sensor is connected, the information can be acquired from the sensor and the network can be used. For example, it is possible to easily obtain instructions suitable for each machine and the environment surrounding them, such as determining the temperature by obtaining from the information on the Internet and comparing both information if both are available.
(Data presentation method)
Hereinafter, will be explained with reference to FIG data presentation method. First, the data group DB4 will be described.

サイバーオブジェクトや、その動作の手順などを表すサイバープロセスは、見方、捉え方、または表現方法の違いにより、一つ以上の特徴で表すことが出来る。このようなサイバーオブジェクトまたはサイバープロセスの特徴は、それぞれ個別のデータとして表現される。このデータは、人間または機械用のデータである。   A cyber process that represents a cyber object or its operation procedure can be represented by one or more features depending on how it is viewed, captured, or expressed. Such characteristics of cyber objects or cyber processes are expressed as individual data. This data is human or machine data.

つまり、一つのオブジェクトまたはプロセスは、その特徴を表す人間または機械用のデータの集合であるデータ群により表現され、データ群DB4に格納される。   That is, one object or process is expressed by a data group that is a collection of human or machine data representing the characteristics of the object or process, and is stored in the data group DB 4.

なお、このデータ群は、五感による知覚情報、内部構造や素材に関する情報、外部構造もしくはその一部に関する情報、使用方法や動作・作用の様子、制御、履歴に関する情報、意味的、空間的、時間的に関連の強いサイバーオブジェクトやサイバープロセスに関する情報、文化や言語に依存した説明情報のうちの少なくとも一つの情報から成ることを特徴とする。   This data group includes perception information by the five senses, information on internal structures and materials, information on external structures or parts thereof, usage methods, behavior / actions, control, history information, semantic, spatial, time It is characterized by comprising at least one of information related to cyber objects and cyber processes that are strongly related to each other, and explanatory information depending on culture and language.

五感による知覚情報とは、例えば、食べ物の画像、音、触覚、匂い、味に関する情報である。内部構造や素材に関する情報とは、例えば、自動車はエンジンやシャーシから構成されるといった情報である。外部構造もしくはその一部に関する情報とは、例えば、エンジンは自動車の一部であり、他の部品とどのように連結されているかといった情報である。使用方法や動作・作用の様子、制御、履歴に関する情報とは、例えば、自動車をどのように運転するか、エンジンはどのように動くのかといった情報である。意味的、空間的、時間的に関連の強いサイバーオブジェクトやサイバープロセスに関する情報とは、例えば、食べる道具であるフォークに対してナイフやスプーン、あるいは福島県に対して山形県や新潟県、ブリに対して成長過程であるメジロやハマチといった情報である。文化や言語に依存した情報とは、例えば、吐くと掃くが「はく」という同音異義語であるといった情報である。   The perception information based on the five senses is, for example, information on food images, sounds, touch, smell, and taste. The information on the internal structure and the material is information that, for example, an automobile is composed of an engine and a chassis. The information on the external structure or a part thereof is, for example, information on how the engine is a part of an automobile and how it is connected to other parts. The information on the method of use, the state of operation / action, control, and history is, for example, information on how to drive the car and how the engine moves. Information on cyber objects and cyber processes that are strongly related to semantic, spatial, and temporal information includes, for example, knives and spoons for forks that are eating tools, or Yamagata, Niigata, and Buri for Fukushima. On the other hand, it is information such as white-eye and hamachi, which are growing processes. The information depending on the culture and language is, for example, information that is a synonym word that sweeps when you vomit but “hak”.

次に、このデータ群を主体である人間または機械に適応させ、提示する方法について説明する。以下、データフィルタリング装置5、データ編成装置6、およびコンピュータ7で行う処理について順に説明を行う。
(ステップ1 データのフィルタリング)
データフィルタリング装置5は、特異情報DB1にアクセスし、データの提示を行う対象である、人間または機械8に関する特異情報を呼び出す。次に、呼び出した特異情報を参照し、サイバーオブジェクトもしくはサイバープロセスに関連するデータをデータ群DB4から呼び出す。この時、提示を行う対象である、人間または機械8の特異情報に基づき、データの取捨選択が行われる。ここで取捨選択を行ったデータはデータ編成装置6に出力される。
(ステップ2 データの編成)
データ編成装置6は、特異情報DB1にアクセスし、データの提示を行う対象である、人間または機械8に関する特異情報を呼び出す。次に、呼び出した特異情報を参照し、データフィルタリング装置5によって入力されたデータの提示順序を決定する。この時、提示を行う対象である、人間または機械8の特異情報に基づき、一度に提示するデータ量、提示順序、および提示時間の少なくとも一つについて決定し、その決定内容を編成データとして保存する。保存された編成データは、データフィルタリング装置5により入力されたデータに付与され、コンピュータ7に出力される。ここで、編成データにより定義される提示方法は、人間または機械8の反応に係らず編成データ通りの提示を保障する静的提示方法、人間または機械8の反応により振る舞いを変える動的提示方法、およびそれらの組み合わせのいずれかである。
(ステップ3 データの提示)
コンピュータ7は、データ編成装置6によって入力された編成データ付のデータを人間または機械8に提示する。ここでデータの提示方法は、編成データの指定に従う。編成データが動的提示方法を含む場合、コンピュータ7は、人間または機械8からの反応を受け取り、その反応に応じてインタラクティブにデータの提示を行う。例えば、人間の要求に応じて、提示するデータの早送り、巻き戻し、停止をすることが可能である。また、機械からデータ受け取り完了の信号が送信されるまで待ち、次のデータを送信することも可能である。さらに、人間または機械8がより多くのデータを要求した場合、人間または機械8に関する特異情報に反映させ、データフィルタリング装置5およびデータ編成装置6に追加データの提示を要求することも可能である。これらの人間または機械8からの反応およびデータの提示終了などコンピュータ7が管理するデータ提示情報は、特異情報DB1に出力され、人間または機械8に関する特異情報に反映される。
Next, a method of adapting and presenting this data group to a human being or machine as a subject will be described. Hereinafter, processing performed by the data filtering device 5, the data organization device 6, and the computer 7 will be described in order.
(Step 1 data filtering)
The data filtering device 5 accesses the singular information DB 1 and calls the singular information related to the human or the machine 8 that is the target of data presentation. Next, with reference to the called unique information, data related to the cyber object or the cyber process is called from the data group DB 4. At this time, data selection is performed based on the specific information of the person or machine 8 to be presented. The data selected here is output to the data organization device 6.
(Step 2 Data organization)
The data organization device 6 accesses the singular information DB 1 and calls the singular information regarding the person or machine 8 that is the target of data presentation. Next, the presentation order of the data input by the data filtering device 5 is determined with reference to the called unique information. At this time, at least one of the data amount, the presentation order, and the presentation time to be presented at a time is determined based on the specific information of the person or machine 8 to be presented, and the determined content is stored as organization data. . The stored organization data is added to the data input by the data filtering device 5 and is output to the computer 7. Here, the presentation method defined by the organization data includes a static presentation method that ensures presentation according to the organization data regardless of the reaction of the human or the machine 8, a dynamic presentation method that changes the behavior according to the reaction of the human or the machine 8, And any combination thereof.
(Step 3 Data presentation)
The computer 7 presents data with knitting data input by the data knitting device 6 to a human or machine 8. Here, the data presentation method follows the designation of the organization data. When the organization data includes a dynamic presentation method, the computer 7 receives a response from the human or the machine 8 and interactively presents data according to the response. For example, it is possible to fast forward, rewind, and stop data to be presented in response to a human request. It is also possible to wait until a data reception completion signal is transmitted from the machine and transmit the next data. Furthermore, when a human or machine 8 requests more data, it can be reflected in the specific information related to the human or machine 8, and the data filtering device 5 and the data organization device 6 can be requested to present additional data. Data presentation information managed by the computer 7 such as the reaction from the human or machine 8 and the end of data presentation is output to the specific information DB 1 and reflected in the specific information regarding the human or machine 8.

ここで、「鉛筆を持ちあげる」という指示を与える場合を考える。相手に応じて、指示を書いた文を見せる。声で命令する、ビデオを見せる、制御プログラムを走らせるなど様々な方法が考えられる。指示を与える相手、つまり人間や機械8といった主体に関する情報は、特異情報DB1に格納されており、「鉛筆を持ち上げる」というプロセスを表現する、テキスト文、音声、ビデオ、プログラムといったデータ群はデータ群DB4に格納されている。   Here, consider a case where an instruction “lift a pencil” is given. Show the sentence with instructions according to the other party. Various methods can be considered, such as commanding by voice, showing a video, and running a control program. Information about the subject to whom an instruction is given, that is, a subject such as a person or machine 8, is stored in the singular information DB1, and a data group such as a text sentence, a voice, a video, and a program expressing the process of “lifting a pencil” is a data group. Stored in DB4.

例えば、主体が聴覚障害者の場合、まず、データフィルタリング装置5は特異情報DB1を参照し、音やプログラムに関する情報は不要なので、テキスト文とビデオとを選択する。次にデータ編成装置6は、同様に特異情報DB1を参照し、ビデオとテキスト文とを同時に提示するのか、テキスト文、ビデオの順で順次提示するのかなどを決定する。その決定に従い、コンピュータ7はテキスト文とビデオとを主体に提示する。また、主体がロボットの場合、同様に制御プログラムを提示する。特異情報DB1には使用可能なセンサ情報も含まれるため、プログラムだけでなく画像データなども合わせて提示することでより正確な指示を与えることが可能である。   For example, when the subject is a hearing-impaired person, first, the data filtering device 5 refers to the specific information DB 1 and selects a text sentence and a video because information on sounds and programs is unnecessary. Next, the data organization device 6 similarly refers to the specific information DB 1 and determines whether to present the video and the text sentence at the same time, or sequentially present the text sentence and the video in this order. In accordance with the determination, the computer 7 presents a text sentence and a video as a subject. If the subject is a robot, a control program is similarly presented. Since the unique information DB 1 includes usable sensor information, it is possible to give a more accurate instruction by presenting not only the program but also the image data.

指示の結果、主体からのフィードバック情報をコンピュータ7は特異情報DB1に反映させ、主体に次の指示を送る、より詳細な指示を再送するなどの処理を行うことが出来る。
(インターフェース提示方法)
以下、本発明のインターフェース提示方法について図1を用いて説明する。まず、インターフェース群DB9について説明を行う。
As a result of the instruction, the computer 7 can reflect the feedback information from the subject in the singular information DB 1 and perform processing such as sending the next instruction to the subject and retransmitting a more detailed instruction.
(Interface presentation method)
Hereinafter, the interface presentation method of the present invention will be described with reference to FIG. First, the interface group DB 9 will be described.

データ群を閲覧、操作、および検索するためのコンピュータのインターフェースは、少なくとも一つのサイバーオブジェクトとその動作により構成される。ここで、サイバーオブジェクトとは、入出力装置13に含まれるモニタ、スピーカー、ヘッドマウンティングディスプレー、フォースフィードバック付き触覚装置などの仮想現実機器により提示が行われる仮想世界のオブジェクト、もしくは入出力装置13に含まれるロボットや人間などの実世界のオブジェクトである。インターフェースを構成する全てのサイバーオブジェクトは、一意のID、各インターフェースとの関連付けを表す分類情報、およびデータ群DB4に格納されているサイバーオブジェクトおよびその動作の特徴を表すデータ群へのポインタを持つ。   A computer interface for browsing, manipulating, and retrieving data groups is composed of at least one cyber object and its operation. Here, the cyber object is a virtual world object that is presented by a virtual reality device such as a monitor, a speaker, a head mounting display, a tactile device with force feedback, or the input / output device 13 included in the input / output device 13. Real world objects such as robots and humans. All the cyber objects that constitute the interface have a unique ID, classification information that indicates an association with each interface, and pointers to data groups that represent the cyber objects stored in the data group DB 4 and the characteristics of their operations.

つまり、任意のシステムのインターフェース情報は、サイバーオブジェクトに関する上記情報の集合である。一つのシステムは、少なくとも一つのインターフェース情報を持ち、提示対象であるユーザ14の特異情報に応じて使い分ける。一つのシステムに関するインターフェース情報の集合は、インターフェース群と呼ばれ、インターフェース群DB9に格納される。   That is, the interface information of an arbitrary system is a collection of the above-described information related to cyber objects. One system has at least one interface information, and uses it according to the specific information of the user 14 to be presented. A set of interface information related to one system is called an interface group and is stored in the interface group DB 9.

提示されるインターフェースにおいて、ユーザは入出力装置13を介してサイバーオブジェクトとインタラクションを行う。インタラクションで行う処理の種類は、3つのインタラクションモードに分類される。「オペレーションモード」では、サイバーオブジェクトの検索、閲覧、および操作を行う。「説明モード」では、サイバーオブジェクトまたはインターフェース自体の説明である、データの呼び出しを行う。「制御モード」では、インターフェースの提示順序の制御を行う。   In the presented interface, the user interacts with the cyber object via the input / output device 13. The types of processing performed by interaction are classified into three interaction modes. In the “operation mode”, search, browsing, and operation of cyber objects are performed. In the “description mode”, data is called which is an explanation of the cyber object or the interface itself. In the “control mode”, the interface presentation order is controlled.

インターフェースを構成するサイバーオブジェクトの少なくとも一つは、スクリーンペットである。スクリーンペットは上記インタラクションモードの切り替え機能、およびユーザに操作の指示を与える機能を持つ。   At least one of the cyber objects that make up the interface is a screen pet. The screen pet has a function of switching the interaction mode and a function of giving an operation instruction to the user.

次に、本発明のインターフェース提示方法により実現されるインターフェースの一実施例について説明する。図2は、本発明のインターフェース提示方法により実現される一実施例のイメージ図である。スクリーン20は、(図1図示)入出力装置13に含まれるモニタまたはヘッドマウンティングディスプレーなどの仮想現実機器により表示される。スクリーン20は、例えば平面、3次元空間およびそれらを組み合わせた画面であり、入出力装置13に含まれる複数の機器により表示が行われてもよい。 Next, an example of an interface that is implemented by the interface presentation method of the present invention. Figure 2 is an image view of an embodiment implemented by the interface presentation method of the present invention. The screen 20 is displayed by a virtual reality device such as a monitor or a head mounting display included in the input / output device 13 (shown in FIG. 1). The screen 20 is, for example, a plane, a three-dimensional space, and a screen combining them, and may be displayed by a plurality of devices included in the input / output device 13.

スクリーン20は、仮想世界のオブジェクト21a〜21eを有する。仮想世界のオブジェクト21eは、スクリーンペット21eである。また、センサー21f、触覚装置21g、スピーカー21h、ロボット21i、先生21jなどは実世界のオブジェクトであり、入出力装置13の一部である。つまり、図2のインターフェースは、仮想世界のオブジェクト21a〜21e、実世界のオブジェクト21f〜21jとそれらの動作により構成される。   The screen 20 includes virtual world objects 21a to 21e. The virtual world object 21e is a screen pet 21e. Further, the sensor 21f, the tactile device 21g, the speaker 21h, the robot 21i, the teacher 21j, and the like are real-world objects and are part of the input / output device 13. That is, the interface of FIG. 2 is configured by virtual world objects 21a to 21e, real world objects 21f to 21j, and their operations.

図3は、本発明のインターフェース提示方法により実現されるインターフェースの具体的なイメージ図である。スクリーン30は、(図1図示)入出力装置13に含まれるモニタや仮想現実機器により表示される。仮想世界のオブジェクトとしての選択欄31、マルチメディアヒエログリフ32、スクリーンペット33はスクリーン30内に表示される。また、実世界のオブジェクトとしての犬のロボット34は、入出力装置13の一部である。つまり、図3のインターフェースは、仮想世界のオブジェクトとしての選択欄31、マルチメディアヒエログリフ32、スクリーンペット33、および実世界のオブジェクト34とそれらの動作により構成されている。マルチメディアヒエログリフ32の詳細は特開2003−84876に記載されているため省略するが、犬のロボット34が実行する動作の内容が表現されている。このように、仮想世界のオブジェクトと実世界のオブジェクトを関連付け、組み合わせて提示するため、(図1図示)ユーザ14は提示されるデータおよびインターフェースとその意味を従来のインターフェース手法と比べより直感的に理解できる。 Figure 3 is a concrete conceptual diagram of the interface implemented by the interface presentation method of the present invention. The screen 30 is displayed by a monitor or virtual reality device included in the input / output device 13 (shown in FIG. 1). A selection field 31 as a virtual world object, a multimedia hieroglyph 32, and a screen pet 33 are displayed in the screen 30. A dog robot 34 as a real-world object is a part of the input / output device 13. That is, the interface of FIG. 3 includes a selection field 31 as a virtual world object, a multimedia hieroglyph 32, a screen pet 33, and a real world object 34 and their operations. Although details of the multimedia hieroglyph 32 are described in Japanese Patent Laid-Open No. 2003-84876, they are omitted, but the contents of the operations executed by the dog robot 34 are expressed. Thus, in order to associate and present the virtual world object and the real world object (shown in FIG. 1), the user 14 makes the presented data and interface and its meaning more intuitive than the conventional interface method. Understandable.

例えば図3のインターフェースは、犬のロボット34の実行したアクションがユーザ14の予期したものであったか否かを表す「○」または「×」を選択欄31からポインティングデバイス等で選択させるものである。ユーザ14は、犬のロボット34の実行したアクションが予期したものであれば選択欄31にある「○」を選択する。「○」が選択されると、スクリーンペット33はユーザ14の成功を祝福する動作を行う。なお、犬のロボット34は前述したようなデータ提示機能ブロック2からの指示によりアクションを実行する。一方、ユーザ14は、犬のロボット34の実行したアクションが予期したものでなければ選択欄31にある「×」を選択する。「×」が選択されると、スクリーンペット33はユーザ14の失敗を残念がる動作を行う。   For example, the interface shown in FIG. 3 allows the user to select “O” or “X” indicating whether the action performed by the dog robot 34 is what the user 14 expects from the selection field 31 using a pointing device or the like. If the action performed by the dog robot 34 is expected, the user 14 selects “◯” in the selection field 31. When “O” is selected, the screen pet 33 performs an operation to congratulate the user 14 on the success. The dog robot 34 executes an action according to an instruction from the data presentation function block 2 as described above. On the other hand, if the action performed by the dog robot 34 is not expected, the user 14 selects “X” in the selection field 31. When “X” is selected, the screen pet 33 performs an operation that regrets the failure of the user 14.

ユーザ14は、スクリーンペット33が持つインタラクションモードの切り替え機能を利用して、前述した「オペレーションモード」に係る図4のようなインターフェースを実現できる。図4は、オペレーションモードに係るインターフェースの一実施例のイメージ図である。   The user 14 can realize the interface shown in FIG. 4 related to the above-described “operation mode” by using the interaction mode switching function of the screen pet 33. FIG. 4 is an image diagram of an embodiment of an interface according to the operation mode.

スクリーン41には、メールの受信者候補を表す仮想世界のオブジェクト42a〜42cが表示されている。なお、スクリーン41は(図1図示)入出力装置13としてジョイスティックを利用する例を表している。(図1図示)ユーザ14は、入出力装置13を操作してサイバーオブジェクトの検索、閲覧、および操作を行う。例えばユーザ14は、ジョイスティックを上、下または左に倒すことで、仮想世界のオブジェクト42a〜42cの何れか一つを選択する。選択された仮想世界のオブジェクト42a〜42cの何れか一つは、メールの受信者として表示欄44に設定される。なお、表示欄43にはメールの送信者を表す仮想世界のオブジェクトが設定されている。スクリーン45は、選択された仮想世界のオブジェクト42aが表示欄46に設定された例である。   On the screen 41, virtual world objects 42a to 42c representing candidate mail recipients are displayed. The screen 41 (shown in FIG. 1) represents an example in which a joystick is used as the input / output device 13. (See FIG. 1) The user 14 operates the input / output device 13 to search, browse, and operate a cyber object. For example, the user 14 selects any one of the objects 42a to 42c in the virtual world by tilting the joystick up, down, or left. Any one of the selected virtual world objects 42a to 42c is set in the display field 44 as a mail recipient. In the display field 43, a virtual world object representing the sender of the mail is set. The screen 45 is an example in which the selected virtual world object 42 a is set in the display field 46.

また、ユーザ14はスクリーンペット33が持つインタラクションモードの切り替え機能を利用して、前述した「説明モード」に係る図5のようなインターフェースを実現できる。図5は、説明モードに係るインターフェースの一実施例のイメージ図である。例えば(図1図示)ユーザ14は、(図1図示)入出力装置13を操作してスクリーン56の「絵を描いている」というサイバーオブジェクトを選択する。   Further, the user 14 can realize the interface shown in FIG. 5 related to the above-described “explanation mode” by using the interaction mode switching function of the screen pet 33. FIG. 5 is an image diagram of an embodiment of the interface according to the explanation mode. For example, the user 14 (shown in FIG. 1) operates the input / output device 13 (shown in FIG. 1) to select the cyber object “drawing a picture” on the screen 56.

インターフェース提示機能ブロック3は、スクリーン56の「絵を描いている」というサイバーオブジェクトが選択されると、そのサイバーオブジェクトを説明するデータをデータ提示ブロックより取得する。スクリーン群57はそのデータを提示する一連の画面であり、入出力装置13に表示される。なお、スクリーン群57はユーザ14の特異情報に応じて取捨選択される。   When the cyber object “drawing a picture” on the screen 56 is selected, the interface presentation function block 3 acquires data describing the cyber object from the data presentation block. The screen group 57 is a series of screens that present the data, and is displayed on the input / output device 13. The screen group 57 is selected according to the specific information of the user 14.

また、ユーザ14はスクリーンペット33が持つインタラクションモードの切り替え機能を利用して、前述した「制御モード」に係る以下のようなインターフェースを実現できる。   Further, the user 14 can realize the following interface related to the “control mode” by using the interaction mode switching function of the screen pet 33.

例えばユーザ14は、入出力装置13を操作して、行った動作の取り消し(Undo)、動作のやり直し(Redo)、サイバーオブジェクトの動作の停止などを行うことができる。   For example, the user 14 can operate the input / output device 13 to cancel the operation performed (Undo), redo the operation (Redo), stop the operation of the cyber object, or the like.

次に、このインターフェース群を主体であるユーザ14に適応させ、提示する方法について図1を参照しながら説明する。以下、インターフェースフィルタリング装置10、インターフェース編成装置11、コンピュータ12、および入出力装置13で行う処理について順に説明を行う。
(ステップ1 インターフェースのフィルタリング)
インターフェースフィルタリング装置10は、特異情報DB1にアクセスし、インターフェースの提示を行う対象である、ユーザ14に関する特異情報を呼び出す。次に、呼び出した特異情報を参照し、動作情報および理由情報をもとにインターフェース群を決定、さらにその他の情報によりインターフェース群の中から一つのインターフェースを選択する。そして、選択したインターフェースに関するインターフェース情報をインターフェース群DB9から呼び出す。この時、提示を行う対象である、ユーザ14の特異情報に基づき、インターフェースに含まれるサイバーオブジェクトの取捨選択が行われる。ここで、取捨選択を行ったインターフェース情報はインターフェース編成装置11に出力される。
(ステップ2 インターフェースの編成)
インターフェース編成装置11は、特異情報DB1にアクセスし、インターフェースの提示を行う対象であるユーザ14に関する特異情報を呼び出す。次に、呼び出した特異情報を参照し、インターフェースフィルタリング装置10によって入力されたインターフェースの提示順序を決定する。この時、提示を行う対象である、ユーザ14の特異情報に基づき、一度に提示するサイバーオブジェクトの数、提示順序、および提示時間の少なくとも一つについて決定し、その決定内容を編成データとして保存する。保存された編成データは、インターフェースフィルタリング装置10によって入力されたインターフェース情報に付与され、コンピュータ12に出力される。ここで、編成データにより定義される提示方法は、ユーザ14の反応に係らず編成データ通りの提示を保障する静的提示方法、ユーザの反応により振る舞いを変える動的提示方法、およびそれらの組み合わせのいずれかである。
(ステップ3 インターフェースの提示)
コンピュータ12は、インターフェース編成装置11によって入力された編成データ付のインターフェース情報を入出力装置13に提供する。この時、提示を行うサイバーオブジェクトとその動作を表すインターフェース情報について、提示を担当する入出力装置13に対して振り分けを行う。例えば、サイバーオブジェクトのうち、仮想オブジェクトとその動作は入出力装置13に含まれるモニタ上に表示されるか、又はヘッドマウンティングディスプレーなどの仮想現実機器により実世界の映像と合成されて表示される。ここでサイバーオブジェクトの動作の指示は、前記データ提示方法に基づいて行われる。
Next, a method of adapting and presenting the interface group to the main user 14 will be described with reference to FIG. Hereinafter, processing performed by the interface filtering device 10, the interface organization device 11, the computer 12, and the input / output device 13 will be described in order.
(Step 1 Interface filtering)
The interface filtering device 10 accesses the singular information DB 1 and calls the singular information related to the user 14 that is the target of the interface presentation. Next, the called unique information is referred to, an interface group is determined based on the operation information and the reason information, and one interface is selected from the interface group based on other information. And the interface information regarding the selected interface is called from the interface group DB 9. At this time, the cyber object included in the interface is selected based on the specific information of the user 14 that is the target of presentation. Here, the interface information that has been selected is output to the interface organization device 11.
(Step 2 interface organization)
The interface organization device 11 accesses the singular information DB 1 and calls the singular information related to the user 14 who is the target of the interface presentation. Next, the presentation order of the interfaces input by the interface filtering device 10 is determined with reference to the called unique information. At this time, at least one of the number of cyber objects to be presented at one time, the order of presentation, and the presentation time is determined based on the specific information of the user 14 that is the target of presentation, and the determined content is stored as organization data. . The stored organization data is added to the interface information input by the interface filtering device 10 and output to the computer 12. Here, the presentation method defined by the organization data is a static presentation method that guarantees the presentation according to the organization data regardless of the reaction of the user 14, a dynamic presentation method that changes the behavior according to the user's reaction, and combinations thereof. Either.
(Step 3 interface presentation)
The computer 12 provides interface information with knitting data input by the interface knitting device 11 to the input / output device 13. At this time, the cyber object to be presented and the interface information representing the operation are distributed to the input / output device 13 in charge of the presentation. For example, among the cyber objects, the virtual object and its operation are displayed on a monitor included in the input / output device 13, or are displayed by being synthesized with a real-world video by a virtual reality device such as a head mounting display. Here, the instruction of the operation of the cyber object is performed based on the data presentation method.

編成データが動的提示方法を含む場合、コンピュータ12は、入出力装置13を介し、ユーザ14からの反応を受け取り、その反応に応じてインタラクティブにインターフェースの提示を行う。ユーザの反応として入出力装置13から送られる入力情報は、例えば、テンキーボードによる数字情報、ジョイスティックの制御棒を倒すことによる方向情報、読取装置によるRF−IDタグの情報、カメラによる画像情報、マイクによる音情報などがある。コンピュータ12は、それらの入力情報を処理する変換関数を持つ。例えば、図4のインターフェースが提示されている時、変換関数は入力情報「ジョイスティックを下に倒した」を「サイバーオブジェクト42cの選択」、「ジョイスティックを左に倒した」を「サイバーオブジェクト42bの選択」と処理する。変換関数はコンピュータ12の内部およびネットワークで接続された外部機器に格納されており、入力装置毎あるいはその組み合わせにより異なる変換関数を使用することが出来る。さらに、提示するインターフェースおよびユーザの特異情報に応じて、変換関数を選択するようにしても良い。変換関数によって処理されたユーザ14の反応およびインターフェースの提示終了などコンピュータ12が管理するインターフェース提示情報は、特異情報DB1に出力され、ユーザ14に関する特異情報に反映される。
(サイバーフィルム)
データ群およびインターフェース群を表す一実施形態として、サイバーフィルムについて説明する。図7は、サイバーフィルムの概念を説明するためのイメージ図である。
When the organization data includes a dynamic presentation method, the computer 12 receives a response from the user 14 via the input / output device 13 and interactively presents an interface according to the response. Input information sent from the input / output device 13 as a user response includes, for example, numeric information using a numeric keyboard, direction information obtained by defeating a joystick control rod, RF-ID tag information provided by a reader, image information provided by a camera, microphone There is sound information by. The computer 12 has a conversion function for processing such input information. For example, when the interface of FIG. 4 is presented, the conversion function sets the input information “depressed joystick” to “select cyber object 42c” and “depressed joystick left” to “select cyber object 42b”. ”Is processed. The conversion function is stored in the computer 12 and in an external device connected via a network, and a different conversion function can be used for each input device or a combination thereof. Furthermore, the conversion function may be selected in accordance with the interface to be presented and the specific information of the user. Interface presentation information managed by the computer 12 such as the reaction of the user 14 processed by the conversion function and the end of presentation of the interface is output to the singular information DB 1 and reflected in the singular information regarding the user 14.
(Cyber film)
Cyber film will be described as an embodiment representing a data group and an interface group. FIG. 7 is an image diagram for explaining the concept of cyber film.

対象などを表す仮想世界および実世界のオブジェクトや手順などを表すプロセスは、見方、捉え方または表現方法の違いにより一つ以上の特徴で表すことが出来る。このようなオブジェクトまたはプロセスの特徴は、人間または機械用のデータで表すことができる。この特徴を表現するデータをビュー60と呼ぶ。すなわち、オブジェクトまたはプロセスは、少なくとも一つのビュー60の集合であるマルチビュー61により表すことができる。   Processes representing virtual world and real world objects and procedures representing objects and the like can be represented by one or more features depending on how they are viewed, captured or represented. Such object or process characteristics can be represented by human or machine data. Data representing this feature is called a view 60. That is, an object or process can be represented by a multiview 61 that is a collection of at least one view 60.

例えば図7のビュー60は、触覚情報、テキスト、ロボット制御情報、音、静止画、動画のデータである。また、図7のマルチビュー61は触覚情報、テキスト、ロボット制御情報、音、静止画、動画のデータのうちの少なくとも一つのデータから成る。   For example, the view 60 in FIG. 7 is tactile information, text, robot control information, sound, still image, and moving image data. 7 includes at least one of tactile information, text, robot control information, sound, still image, and moving image data.

マルチビュー61は、オブジェクトやプロセスの特徴を少なくとも一つのビュー60で表現しているが、類似するビュー60も含まれている。そこで、マルチビュー61から類似するビュー60を削除する。自己説明型マルチビュー62は、マルチビュー61から類似するビュー60を削除することで冗長性を削除したビュー60の集合である。   The multi-view 61 represents the characteristics of an object or process with at least one view 60, but includes a similar view 60. Therefore, the similar view 60 is deleted from the multiview 61. The self-explanatory multi-view 62 is a set of views 60 from which redundancy is deleted by deleting similar views 60 from the multi-view 61.

サイバーフィルム64は、自己説明型マルチビュー62に含まれるビュー60の集合に部分的な提示順序を持たせ、サイバーフレーム63という単位でビュー60を提供する。サイバーフィルム64は、ビュー60の数を増やすことにより、オブジェクトやプロセスのより多くの特徴を表すことが可能である。サイバーフレーム64は、少なくとも一つのビュー60が含まれており、そのビュー60の間に部分的な提示順序を持たせることが出来る。なお、サイバーフレーム64は意味や機能別にグループ化される。そのグループをサイバーシーンと呼ぶ。   The cyber film 64 provides a view 60 in units of cyber frames 63 by giving a partial presentation order to a set of views 60 included in the self-explanatory multi-view 62. Cyber film 64 can represent more features of objects and processes by increasing the number of views 60. The cyber frame 64 includes at least one view 60, and a partial presentation order can be provided between the views 60. The cyber frames 64 are grouped according to meaning and function. This group is called the cyber scene.

サイバーフィルムの例として、サイバーコミュニケーションフィルム(以下、CCFという)とサイバーインターフェースフィルム(以下、CIFという)がある。   Examples of cyber films include a cyber communication film (hereinafter referred to as CCF) and a cyber interface film (hereinafter referred to as CIF).

CCFは、ユーザの意思(指示を含む)を「主語」、「述語」、「場所」、「時間」、「理由・条件・目的」、「手段・方法」の少なくとも一つの観点で表現することにより、コンピュータを介して人間または機械にユーザの意志を容易に伝達するための手段を提供するものである。   CCF expresses the user's intention (including instructions) from at least one of the following points: “subject”, “predicate”, “place”, “time”, “reason / condition / purpose”, and “means / method” Thus, a means for easily transmitting a user's will to a human or a machine via a computer is provided.

CIFは、様々な(図1図示)入出力装置13を介してユーザ14がマルチビュー62を容易に検索、閲覧、または操作するためのインターフェースを提供するものである。   The CIF provides an interface for the user 14 to easily search, view, or operate the multiview 62 via various input / output devices 13 (shown in FIG. 1).

さらに、サイバーフィルムについて詳細に説明する。図8は、サイバーフィルムの一例のイメージ図である。   Furthermore, cyber film will be described in detail. FIG. 8 is an image diagram of an example of a cyber film.

サイバーフィルム群65は、ユーザが実行を指示したOSやアプリケーション等のプログラム(以下、サブシステムという)を表すサイバーフィルム64の集合である。例えば、サイバーフィルム群65はF1〜F6のサブシステムを有する。サイバーフィルム64はサブシステムF2を拡大したものである。   The cyber film group 65 is a set of cyber films 64 representing programs (hereinafter referred to as subsystems) such as an OS and applications that the user has instructed to execute. For example, the cyber film group 65 has subsystems F1 to F6. The cyber film 64 is an expansion of the subsystem F2.

サイバーフィルム64は少なくとも一つから成る一連のサイバーフレーム83から構成される。一連のサイバーフレーム83は、サブシステムが有する機能や意味を表すサイバーシーン82a〜82e毎に分割されている。サイバーシーン82a〜82eは、少なくとも一つのフレーム83から成るサイバーフレーム群83a〜83eが対応付けられている。例えば、一連のサイバーフレーム83は、ログイン,メール閲覧などの機能や意味を表すサイバーシーン82a〜82e毎に分割される。 The cyber film 64 is composed of a series of cyber frames 83 composed of at least one. The series of cyber frames 83 is divided into cyber scenes 82a to 82e representing functions and meanings of the subsystem. The cyber scenes 82a to 82e are associated with cyber frame groups 83a to 83e including at least one frame 83. For example, a series of cyber frames 83 are divided into cyber scenes 82a to 82e representing functions and meanings such as login and mail browsing.

データ群DB又はインターフェース群DBは、様々な形態のデータベースおよびフィルムシステム、例えばリレーショナルデータベース、階層型データベース、ネットワーク型データベース、分散データベースなどが使用できる。一実施形態としてのフィルムDBは、図8のようなサイバーフィルム64,サイバーシーン82a〜82eおよびサイバーフレーム83を例えばフィルムテーブル,シーンテーブル,フレームテーブルにより管理している。図9は、フィルムテーブルの一例の構成図である。図10は、シーンテーブルの一例の構成図である。図11は、フレームテーブルの一例の構成図である。   As the data group DB or the interface group DB, various types of databases and film systems such as a relational database, a hierarchical database, a network database, and a distributed database can be used. The film DB as one embodiment manages the cyber film 64, the cyber scenes 82a to 82e, and the cyber frame 83 as shown in FIG. 8 by using, for example, a film table, a scene table, and a frame table. FIG. 9 is a configuration diagram of an example of a film table. FIG. 10 is a configuration diagram of an example of a scene table. FIG. 11 is a configuration diagram of an example of a frame table.

図9のフィルムテーブルは、フィルムID,シーンID及びシーン番号をデータ項目として有している。フィルムIDは、サイバーフィルムの識別子を表している。シーンIDはサイバーシーンの識別子を表している。シーン番号は、データ項目「シーンID」が表すサイバーシーンがサイバーフィルム内で何番目のサイバーシーンかを表している。つまり、フィルムテーブルはサイバーフィルムとサイバーシーンとの関係を表している。   The film table of FIG. 9 has a film ID, a scene ID, and a scene number as data items. The film ID represents an identifier of the cyber film. The scene ID represents a cyber scene identifier. The scene number represents the number of the cyber scene in the cyber film represented by the data item “scene ID”. In other words, the film table represents the relationship between the cyber film and the cyber scene.

図10のシーンテーブルは、シーンID,フレームID及びフレーム番号をデータ項目として有している。シーンIDは、サイバーシーンの識別子を表している。フレームIDは、サイバーフレームの識別子を表している。また、フレーム番号はデータ項目「フレームID」が表すサイバーフレームがサイバーシーン内で何番目のサイバーフレームかを表している。つまり、シーンテーブルはサイバーシーンとサイバーフレームとの関係を表している。   The scene table in FIG. 10 has a scene ID, a frame ID, and a frame number as data items. The scene ID represents a cyber scene identifier. The frame ID represents an identifier of the cyber frame. The frame number represents the number of the cyber frame in the cyber scene that is represented by the data item “frame ID”. In other words, the scene table represents the relationship between the cyber scene and the cyber frame.

図11のフレームテーブルは、フレームID,サイバーオブジェクトID,位置情報,アクション情報およびユーザ入力対応処理情報をデータ項目として有している。フレームIDは、サイバーフレームの識別子を表している。サイバーオブジェクトIDは、サイバーオブジェクトの識別子を表している。位置情報は、データ項目「サイバーオブジェクトID」が表すサイバーオブジェクトの位置を表している。   The frame table of FIG. 11 has a frame ID, a cyber object ID, position information, action information, and user input correspondence processing information as data items. The frame ID represents an identifier of the cyber frame. The cyber object ID represents an identifier of the cyber object. The position information represents the position of the cyber object represented by the data item “cyber object ID”.

アクション情報は、データ項目「サイバーオブジェクトID」が表すサイバーオブジェクトのアクションを表している。また、ユーザ入力対応処理情報は3つのインタラクションモードのそれぞれにおいて、ユーザからの入力に対する対応処理を表している。   The action information represents the action of the cyber object represented by the data item “cyber object ID”. Further, the user input handling process information represents a handling process for an input from the user in each of the three interaction modes.

つまり、フレームテーブルは、サイバーフレームとサイバーオブジェクト,ユーザからの入力に対する対応処理との関係を表している。サイバーフィルムは、サイバーオブジェクトに対して検索,閲覧,操作などの処理を行うためのインターフェースの表現形式である。   In other words, the frame table represents the relationship between the cyber frame, the cyber object, and the corresponding processing for the input from the user. Cyber film is a representation format of an interface for performing processing such as search, browsing, and operation on cyber objects.

サイバーフレームは、幾つかのサイバーオブジェクトを持つ。各サイバーフレームにおいて、サイバーオブジェクトのうち仮想世界のオブジェクトは、3次元空間もしくは平面を多層的に組み合わせた疑似3次元空間等に配置される。実世界のオブジェクトは、入出力装置として現実世界に配置される。すなわち、サイバーフレームは仮想世界のオブジェクトを持つ前記(図2図示)スクリーンと現実世界の入出力装置を組み合わせた枠組みである。これらのサイバーオブジェクトは、入出力装置に含まれるマウス,タッチパネル,ジョイスティック,触覚デバイスなどによりユーザから入力された情報を受け付け、サイバーオブジェクトの動作または状態でユーザに情報を出力する。   Cyberframe has several cyber objects. In each cyber frame, the objects in the virtual world among the cyber objects are arranged in a three-dimensional space or a pseudo three-dimensional space in which planes are combined in multiple layers. Real-world objects are placed in the real world as input / output devices. In other words, the cyber frame is a framework in which the screen having the virtual world object (shown in FIG. 2) and the real world input / output device are combined. These cyber objects accept information input from the user by a mouse, touch panel, joystick, tactile device, or the like included in the input / output device, and output information to the user according to the operation or state of the cyber object.

図12は、サイバーフィルムの適応処理の一例について説明するための図である。フィルムDBは、サイバーフレームをサブシステム(F1〜F6)及びサイバーシーン(S1〜S5)毎に管理している。   FIG. 12 is a diagram for explaining an example of cyber film adaptation processing. The film DB manages cyber frames for each subsystem (F1 to F6) and cyber scenes (S1 to S5).

ステップS1では、ユーザが実行を指示したOSやアプリケーション等のプログラムに応じてサイバーフィルム(F2)が選択され、サイバーフィルム(F2)のフィルムIDを用いてフィルムテーブルから一連のサイバーシーンS1〜S3及びS5のシーンIDが取得される。   In step S1, a cyber film (F2) is selected in accordance with a program such as an OS or application that the user has instructed to execute, and a series of cyber scenes S1 to S3 and The scene ID of S5 is acquired.

ステップS2では、特異情報DB1の一実施形態としてのユーザ環境モデルに基づき、サイバーフィルム(F2)に含まれるサイバーシーンS1〜S3及びS5からサイバーシーンS2,S3及びS5が選択され、サイバーシーンS2,S3及びS5のシーンIDを用いてシーンテーブルから一連のフレームIDが取得される。   In step S2, the cyber scenes S2, S3 and S5 are selected from the cyber scenes S1 to S3 and S5 included in the cyber film (F2) based on the user environment model as one embodiment of the unique information DB1, and the cyber scenes S2, S2 and S5 are selected. A series of frame IDs are obtained from the scene table using the scene IDs of S3 and S5.

ステップS3では、ステップS2で取得されたフレームIDを用いて図11のようなフレームテーブルからサイバーフレーム群を選択する。サイバーシーンS2,S3及びS5にそれぞれ対応付けられているサイバーフレーム群は、ユーザ環境モデルに基づき、必要なサイバーフレームが選択され、サイバーシーンS2′,S3′及びS5′となる。   In step S3, a cyber frame group is selected from the frame table as shown in FIG. 11 using the frame ID acquired in step S2. In the cyber frame groups respectively associated with the cyber scenes S2, S3, and S5, necessary cyber frames are selected based on the user environment model, and become cyber scenes S2 ', S3', and S5 '.

次に、選択されたサイバーフレームのフレームIDに関連付けられている一連のサイバーオブジェクトIDをフレームテーブルからサイバーフレーム毎に取得する。取得したサイバーオブジェクトIDは、ユーザ環境モデルに基づき、必要なサイバーオブジェクトIDがサイバーフレーム毎に選択される。例えばユーザ環境モデルに基づき、2つのサイバーオブジェクトIDが選択された場合、ステップS4に進み、5つのサイバーオブジェクトを表示可能なサイバーフレーム91から2つのサイバーオブジェクトを表示可能なサイバーフレーム92に変更する。   Next, a series of cyber object IDs associated with the frame ID of the selected cyber frame is acquired for each cyber frame from the frame table. The acquired cyber object ID is selected for each cyber frame based on the user environment model. For example, when two cyber object IDs are selected based on the user environment model, the process proceeds to step S4, and the cyber frame 91 that can display five cyber objects is changed to the cyber frame 92 that can display two cyber objects.

次に、各サイバーフレームに関連付けられているサイバーオブジェクトの調整を行う。例えばサイバーフレーム91,92に表示されるサイバーオブジェクトの配置は、コンピュータ12が使用可能な入出力装置13に応じて変化する。   Next, the cyber objects associated with each cyber frame are adjusted. For example, the arrangement of the cyber objects displayed on the cyber frames 91 and 92 changes according to the input / output device 13 that can be used by the computer 12.

図13は、入出力装置に応じてサイバーフレームに提示させるサイバーオブジェクトの配置を変化させたサイバーフレームの一例のイメージ図である。例えば(図1図示)入出力装置13としてマウスを使用する場合、サイバーオブジェクトが図13(a)のように配置される。これにより、マウスポインタでサイバーオブジェクトを指示することによりサイバーオブジェクトの選択を行うことができる。   FIG. 13 is an image diagram of an example of a cyber frame in which the arrangement of cyber objects to be presented on the cyber frame is changed according to the input / output device. For example, when a mouse is used as the input / output device 13 (shown in FIG. 1), cyber objects are arranged as shown in FIG. Thereby, the cyber object can be selected by instructing the cyber object with the mouse pointer.

また、入出力装置13としてテンキーを使用する場合、テンキーのキー配列にそって図13(b)のようにサイバーオブジェクトを配置し、各サイバーオブジェクトの上に対応するキーの数字を表示する。これにより、テンキーで数字を入力することでサイバーオブジェクトの選択を行うことができる。   When a numeric keypad is used as the input / output device 13, cyber objects are arranged along the numeric keypad layout as shown in FIG. 13B, and the corresponding key numbers are displayed on the cyber objects. Thereby, the cyber object can be selected by inputting a number with the numeric keypad.

また、入出力装置13としてジョイスティックを使用する場合、図13(c)のようにサイバーオブジェクトを円周上に配置し、各サイバーオブジェクトの上に円の中心からサイバーオブジェクトへの向きを示す矢印を配置する。これにより、ジョイスティックを矢印の方向に倒すことでサイバーオブジェクトの選択を行うことができる。なお、入出力装置13に入力される入力データとサイバーオブジェクトとの関連付けも、ユーザ環境モデルに応じて適応が図られたサイバーフレームのデータに基づき自動的に変更される。   When a joystick is used as the input / output device 13, cyber objects are arranged on the circumference as shown in FIG. 13C, and an arrow indicating the direction from the center of the circle to the cyber object is placed on each cyber object. Deploy. Thereby, it is possible to select a cyber object by tilting the joystick in the direction of the arrow. The association between the input data input to the input / output device 13 and the cyber object is also automatically changed based on the data of the cyber frame adapted for the user environment model.

上記の処理により、多様な入出力装置13に対応し、且つ直感的に選択などの操作を行うことのできるサイバーフレームをユーザに適応させて提供できる。この結果、ユーザへの適応が図られたインターフェースにより、ユーザはプログラムとの間で情報をやり取りしながらコンピュータを操作できる。   Through the above processing, it is possible to adapt and provide the user with a cyber frame that is compatible with various input / output devices 13 and that can perform operations such as selection intuitively. As a result, the interface adapted to the user enables the user to operate the computer while exchanging information with the program.

なお、サイバーフィルムを用いてデータおよびインターフェースを表現した場合、以下のような利点を有する。
(インターフェースの簡素化)
CIFを用いることにより、一度に提示する機能やインターフェースを構成するオブジェクトの数を少なくすることができる。
In addition, when data and an interface are expressed using a cyber film, it has the following advantages.
(Simplified interface)
By using CIF, it is possible to reduce the number of objects constituting the functions and interfaces presented at one time.

OSや各種アプリケーションなど従来のシステムでは、高機能になるに従い、一度に画面上に表示されるボタンやメニューなどオブジェクトの数が飛躍的に増大していた。CIFでは、時間の概念を取り入れ、操作をサイバーフレームもしくはサイバーシーン単位のステップに分割している。各ステップで必要なサイバーオブジェクトのみをユーザに提示するため、システムが高機能であってもインターフェースの複雑化を抑制することが出来る。また、機械的なデザインであるボタンやメニューの集合ではなく、全体として自然な画像に見えるようなインターフェースを設計することが出来る。そのため、映画やテレビのドラマに用いられる提示手法を容易に用いることが出来、コンピュータにとって不慣れな人でも抵抗感無く操作を行えるインターフェースの提供が可能である。さらに、現実世界と仮想世界のオブジェクトやプロセスを効果的に組み合わせることにより、直感的にわかりやすいインターフェースの提供が可能である。
(インターフェース提示の制御)
CIFにより、前述した「制御モード」に係る図6のようなインターフェースを表現できる。図6は、制御モードに係るインターフェースの一実施例のイメージ図である。
In a conventional system such as an OS or various applications, the number of objects such as buttons and menus displayed on the screen at a time has dramatically increased as the functions become higher. CIF incorporates the concept of time and divides the operation into steps for each cyberframe or cyberscene. Since only the necessary cyber objects are presented to the user in each step, the complexity of the interface can be suppressed even if the system is highly functional. It is also possible to design an interface that looks like a natural image as a whole, rather than a set of buttons and menus that are mechanically designed. Therefore, it is possible to easily use a presentation method used in a movie or a television drama, and to provide an interface that allows a person unfamiliar with a computer to operate without resistance. Furthermore, it is possible to provide an intuitive interface by effectively combining real world and virtual world objects and processes.
(Control of interface presentation)
The interface shown in FIG. 6 related to the “control mode” described above can be expressed by CIF. FIG. 6 is an image diagram of an embodiment of an interface related to the control mode.

例えば(図1図示)ユーザ14は、(図1図示)入出力装置13を操作して、サイバーフレーム毎あるいはサイバーシーン毎の早送り、巻き戻し、スキップ、再生、および停止などのインターフェース提示の制御を行うことができる。例えば図6では、早送り、巻き戻し、スキップ、再生、停止などの提示制御により、図6中の矢印で表したように、一連のサイバーフレームおよびサイバーシーン間を自由に移動できる。   For example, the user 14 (shown in FIG. 1) operates the input / output device 13 (shown in FIG. 1) to control interface presentation such as fast-forward, rewind, skip, play, and stop for each cyberframe or each cyberscene. It can be carried out. For example, in FIG. 6, it is possible to freely move between a series of cyber frames and cyber scenes as indicated by arrows in FIG. 6 by presentation control such as fast forward, rewind, skip, playback, and stop.

このため、複雑なキーボードは必要が無く、早送り、巻き戻し、再生、停止ボタンを備えるポータブルオーディオ機器のコントローラと同程度の機能を持つ簡易な入力機器でコンピュータを操作することが出来る。また、特異情報を用いることで、インターフェースの適応を図り、より簡易な入力装置、例えば一つのボタンのみによる操作などを実現することも可能である。
(サイバーオブジェクトの検索)
CIFにより、サブシステムを構成する全てのサイバーオブジェクトの検索が実現できる。
For this reason, a complicated keyboard is not necessary, and the computer can be operated with a simple input device having the same function as a controller of a portable audio device having fast-forward, rewind, play, and stop buttons. In addition, by using unique information, it is possible to adapt the interface and realize a simpler input device, for example, an operation using only one button.
(Cyber object search)
With CIF, it is possible to search for all cyber objects constituting the subsystem.

例えば前記フィルムテーブル、シーンテーブル、フレームテーブルを参照することにより、任意のシーン内およびフレーム内に使われるサイバーオブジェクトの一覧を検索することができる。これにより、現在提示しているフレーム外のサイバーオブジェクトについても検索を行い、説明を提示することが可能である。
(提示対象への適応)
CIFを用いることにより、データ提示に際してきめ細かな提示対象への適応が実現できる。
For example, by referring to the film table, scene table, and frame table, a list of cyber objects used in an arbitrary scene and frame can be searched. As a result, it is possible to search for a cyber object outside the currently presented frame and present an explanation.
(Adaptation to presentation target)
By using the CIF, it is possible to realize fine adaptation to the presentation target when presenting data.

まず、CIFは提示対象に応じてインターフェースの適応処理を行い、ユーザとその使用環境、例えば、入出力装置の種類に応じて適した操作環境を提示する。さらに、そのインターフェースにより提供されるデータは、サイバーフィルム形式で提供されるため、データ自身についても適応処理を施すことが出来る。これにより、データと操作を行うインターフェース両方による適応が可能である。
(意思伝達の効率化)
CCFを用いることにより、意思伝達の効率を高めることができる。従来の自然言語およびプログラム言語では、「主語」、「述語」、「場所」などの意味的な切り分けは、理解を行う主体である人間もしくは機械が行っていた。しかし、CCFでは意味的な切り分けを表現時に明示することにより、意味の切り分け処理を行う必要がない。また、意味的に切り分けられた部分情報、例えば「述語」を表す情報はサイバーフィルムで表現されており、理解を行う主体に応じて適したデータが提示される。さらに、理解および指示の実行により多くの情報が必要であればフィルムDBから追加情報を引き出すことが可能である。これにより、CCFは、人間又は機械が表現された意思(指示を含む)を理解する処理を簡略化し、負担を軽減することが出来る。
First, the CIF performs interface adaptation processing according to the presentation target, and presents an operation environment suitable for the user and the usage environment thereof, for example, the type of the input / output device. Furthermore, since the data provided by the interface is provided in a cyber film format, the data itself can be subjected to adaptive processing. This allows adaptation by both the data and the interface that operates.
(Efficient communication)
By using CCF, it is possible to increase the efficiency of communication. In conventional natural languages and programming languages, the semantic separation of “subject”, “predicate”, “location”, etc. was performed by a human or machine that is the main subject of understanding. However, in the CCF, it is not necessary to perform a semantic separation process by specifying semantic separation at the time of expression. In addition, partial information that is semantically separated, for example, information that represents a “predicate” is expressed in a cyber film, and appropriate data is presented according to the subject that understands. Furthermore, if more information is needed for understanding and execution of instructions, additional information can be extracted from the film DB. As a result, the CCF can simplify the process of understanding the intention (including instructions) expressed by a human or a machine, and reduce the burden.

また従来は意思を伝達する対象に応じて、英語や日本語、あるいはプログラミング言語など異なる言語と文法を習得し、使用する必要があった。しかし、CCFでは「主語」「述語」「場所」などの前記観点で情報を表現することで人だけでなく、ロボットやコンピュータなど多種多様な対象に意思(指示を含む)を伝達することが可能である。これにより、伝達する対象に係らず同一の形式で意思を表現すれば良く、CCFは表現を行う負担を軽減することが出来る。   In the past, it was necessary to learn and use different languages and grammars such as English, Japanese, or programming languages according to the object to be communicated. However, in CCF, by expressing information from the above viewpoints such as “subject”, “predicate”, and “location”, it is possible to convey intentions (including instructions) not only to people but also to various objects such as robots and computers. It is. As a result, the intention can be expressed in the same format regardless of the transmission target, and the CCF can reduce the burden of the expression.

これらの機能を実現するためには、伝達対象に関する特異情報が必須である。この特異情報は必要に応じて変更・追加することが出来、CCFの利用範囲は容易に拡張または制限することが出来る。
(効果的な知識獲得)
CIFおよびCCFで用いられる全てのサイバーオブジェクトおよびサイバープロセスはサイバーフィルムによる説明を持つことが出来る。また、サイバーフィルムの中で用いられるサイバーオブジェクトおよびサイバープロセスはさらに他のサイバーフィルムによる説明を持つことが出来る。この時、サイバーフィルムは、ユーザの特異情報に応じて適応され、さらに実世界のオブジェクトと仮想世界のオブジェクトおよびそれらのプロセスを組み合わせた説明を提供する。そのサイバーフィルムを閲覧、検索、操作するインターフェースはCIFで表現され、それぞれのユーザとその使用環境に適したインターフェースが提供される。よってユーザは操作方法の習得などの知識獲得を効果的に行うことが出来る。
In order to realize these functions, specific information regarding the transmission target is essential. This unique information can be changed and added as necessary, and the use range of the CCF can be easily expanded or limited.
(Effective knowledge acquisition)
All cyber objects and cyber processes used in CIF and CCF can have a cyber film description. In addition, cyber objects and cyber processes used in cyber films can be explained by other cyber films. At this time, the cyber film is adapted according to the specific information of the user, and further provides a description that combines real-world objects and virtual-world objects and their processes. The interface for browsing, searching, and manipulating the cyber film is expressed in CIF, and an interface suitable for each user and the usage environment is provided. Therefore, the user can effectively acquire knowledge such as acquisition of an operation method.

なお、本発明は、上記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更を加え得るものである。   In addition, this invention is not limited to above-described embodiment, In the range which does not deviate from the summary of this invention, a various change can be added.

例えば、データはサイバーフィルムだが、それを閲覧・検索・操作するインターフェースに従来のGUIを用いたり、サイバーフィルム以外のデータの閲覧・検索・操作を行うインターフェースにCIFを用いても構わない。特異情報、データ、インターフェースを格納するデータベースは、連想記憶装置やニューラルネットワーク装置などを用いても構わない。本発明を適用することで、文書作成ソフト、ウェブブラウザ、メール、チャット、およびインスタントメッセージを行うソフト、画像処理ソフト、プログラム開発ソフトなどのアプリケーション、ネットワークサービス、オペレーティングシステム、あるいはロボットやその他ハードウェアなどに、多様な人間や機械とその環境に対して高度な適応機能を持たせることが出来る。   For example, although data is cyber film, a conventional GUI may be used as an interface for browsing / searching / manipulating the data, or CIF may be used as an interface for browsing / searching / manipulating data other than cyber film. As a database for storing unique information, data, and interfaces, an associative memory device, a neural network device, or the like may be used. By applying the present invention, application software such as document creation software, web browser, mail, chat, instant message, image processing software, program development software, network service, operating system, robot or other hardware, etc. In addition, it is possible to have a highly adaptive function for various humans and machines and their environments.

また、前記実施形態を実現するための構成要素(機能ブロックを含む)の具体的手段は、ハードウェア、ソフトウェア、ネットワーク、これらの組み合わせ、その他の任意の手段を用いることができる。さらに、機能ブロック同士が複合して一つの機能ブロックまたは装置に集約されても良い。また、一つの機能ブロックの機能が複数の機能ブロックまたは装置の協働により実現されても良い。さらに、機能ブロック同士はネットワークで連結されて相互に通信可能なものでもよい。   In addition, hardware, software, a network, a combination of these, and any other means can be used as specific means of the constituent elements (including functional blocks) for realizing the above-described embodiment. Furthermore, the functional blocks may be combined and integrated into one functional block or apparatus. Further, the function of one functional block may be realized by cooperation of a plurality of functional blocks or devices. Furthermore, the functional blocks may be connected to each other via a network and can communicate with each other.

以下、本発明のインターフェース提示方法を実施する一実施例として、CIF又はCCFを利用する以下の実施例に基づき図面を参照しつつ説明していく。 Hereinafter, an embodiment for implementing the interface presentation method of the present invention are described with reference to figures based on the following embodiments which utilize the CIF or CCF.

(システム構成)
図14は、本発明によるインターフェース提示システムの一実施例のシステム構成図である。図14のインターフェース提示システム100は、クライアント101と,フィルムDBサーバ102と,認証サーバ103と、コンテンツサーバ104とが、LAN(Local Area Network)やインターネットなどのネットワーク108を介して接続されている。
(System configuration)
FIG. 14 is a system configuration diagram of an embodiment of the interface presentation system according to the present invention. In the interface presentation system 100 in FIG. 14, a client 101, a film DB server 102, an authentication server 103, and a content server 104 are connected via a network 108 such as a LAN (Local Area Network) or the Internet.

クライアント101は、ユーザが操作するパソコン等であって、ユーザ環境モデルDB105を保持している。クライアント101は、フィルムDBサーバ102,認証サーバ103等からユーザ環境モデルDB105に格納する情報を取得してもよい。クライアント101は、人間又は機械との間で情報のやり取りをする入出力装置を備えている。クライアント101は、CIFを利用して入出力装置を制御することで、ユーザ又は機械への適応が図られた各種インターフェース又はデータの提示を実現している。   The client 101 is a personal computer or the like operated by the user, and holds a user environment model DB 105. The client 101 may acquire information stored in the user environment model DB 105 from the film DB server 102, the authentication server 103, or the like. The client 101 includes an input / output device that exchanges information with a human or a machine. The client 101 uses the CIF to control the input / output device, thereby realizing various interfaces or data that are adapted to the user or machine.

フィルムDBサーバ102は、CIFのデータが格納されているフィルムDBの管理を行う。また、フィルムDBサーバ102はクライアント101等からの要求に応じて、CIFのデータをクライアント101に送信する。認証サーバ103は、例えばユーザ認証に利用される。コンテンツサーバ104は、CIFで用いられる画像、音、触覚データなどのコンテンツデータを管理している。   The film DB server 102 manages a film DB in which CIF data is stored. Further, the film DB server 102 transmits CIF data to the client 101 in response to a request from the client 101 or the like. The authentication server 103 is used for user authentication, for example. The content server 104 manages content data such as images, sounds, and tactile data used in the CIF.

なお、インターフェース提示システム100のシステム構成は一例であって、ユーザ環境モデルDB105をクライアント101以外に保持させるシステム構成,フィルムDBをクライアント101に保持させるシステム構成,認証サーバ103を省略したシステム構成、フィルムDBサーバ102,認証サーバ103及びコンテンツサーバ104をWWWサーバで実現するシステム構成など、様々な形態が考えられる。
(ハードウェア構成)
図15は、クライアントの一実施例のハードウェア構成図である。クライアント101は、それぞれバスBで相互に接続されている入力装置111,出力装置112,ドライブ装置113,補助記憶装置115,メモリ装置116,演算処理装置117およびネットワーク接続装置118などのデバイスを含むように構成されている。なお、図15のクライアント101を構成する各種デバイスは、1つの筐体に収容してもよいし、複数の筐体に分散して収容してもよい。
Note that the system configuration of the interface presentation system 100 is an example, and a system configuration in which the user environment model DB 105 is held other than the client 101, a system configuration in which the film DB is held in the client 101, a system configuration in which the authentication server 103 is omitted, and a film Various forms such as a system configuration in which the DB server 102, the authentication server 103, and the content server 104 are realized by a WWW server are conceivable.
(Hardware configuration)
FIG. 15 is a hardware configuration diagram of an embodiment of the client. The client 101 includes devices such as an input device 111, an output device 112, a drive device 113, an auxiliary storage device 115, a memory device 116, an arithmetic processing device 117, and a network connection device 118 that are connected to each other via a bus B. It is configured. Note that the various devices constituting the client 101 of FIG. 15 may be accommodated in one casing or may be distributed and accommodated in a plurality of casings.

入力装置111はマウスやタッチパネル、ジョイスティック、カメラ、RF−IDタグの読み取り装置などで構成され、各種情報を入力するために用いられる。出力装置112はモニタやスピーカおよびロボットなどのコンピュータの制御可能な装置で構成され、各種情報を出力するために用いられる。例えば出力装置112は、サイバーオブジェクト等を含むフレームを表示するために用いられる。ネットワーク接続装置118はモデムやターミナルアダプタなどで構成され、ネットワーク108に接続する為に用いられる。   The input device 111 includes a mouse, a touch panel, a joystick, a camera, an RF-ID tag reading device, and the like, and is used to input various types of information. The output device 112 includes a computer-controllable device such as a monitor, a speaker, and a robot, and is used for outputting various types of information. For example, the output device 112 is used to display a frame including a cyber object or the like. The network connection device 118 includes a modem, a terminal adapter, and the like, and is used for connecting to the network 108.

クライアント101の処理に係るインターフェース提示プログラムは、記録媒体114の配布やネットワーク108からのダウンロードなどによって提供される。なお、記録媒体114は、CD−ROM、フレキシブルディスク、光磁気ディスク(MO)等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプを用いることができる。   The interface presentation program related to the processing of the client 101 is provided by distributing the recording medium 114, downloading from the network 108, or the like. The recording medium 114 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, a magneto-optical disk (MO), or the like, a ROM, a flash memory, or the like. Various types such as an electrically recording semiconductor memory can be used.

インターフェース提示プログラムを記録した記録媒体114がドライブ装置113にセットされると、インターフェース提示プログラムは記録媒体114からドライブ装置113を介して補助記憶装置115にインストールされる。また、ネットワーク108からダウンロードされたインターフェース提示プログラムはネットワーク接続装置118を介して補助記憶装置115にインストールされる。   When the recording medium 114 in which the interface presentation program is recorded is set in the drive device 113, the interface presentation program is installed in the auxiliary storage device 115 from the recording medium 114 through the drive device 113. The interface presentation program downloaded from the network 108 is installed in the auxiliary storage device 115 via the network connection device 118.

補助記憶装置115は、インストールされたインターフェース提示プログラムを格納すると共に、必要なファイル,データ等を格納する。メモリ装置116は、コンピュータの起動時などに補助記憶装置115からインターフェース提示プログラムを読み出して格納する。演算処理装置117はメモリ装置116に格納されているインターフェース提示プログラムに従って、本発明のインターフェース提示方法に係る各種機能を実現する。   The auxiliary storage device 115 stores the installed interface presentation program and also stores necessary files, data, and the like. The memory device 116 reads the interface presentation program from the auxiliary storage device 115 and stores it when the computer is started up. The arithmetic processing unit 117 implements various functions according to the interface presentation method of the present invention in accordance with the interface presentation program stored in the memory device 116.

なお、データ提示プログラムの場合も同様に、演算処理装置117はメモリ装置116に格納されているデータ提示プログラムに従って、データ提示方法に係る各種機能を実現する。
(機能構成)
図16は、クライアントの一実施例の機能構成図である。クライアント101は、本発明によるインターフェース提示プログラムの他、OSやアプリケーションによって実現される通信制御部131,CIF処理部132,コンピュータ134および入出力装置135,ユーザ環境モデルDB105を有するように構成される。
As in the case of data presentation program, the processing unit 117 according to the data presented program stored in the memory device 116 to implement various functions of the data presentation method.
(Functional configuration)
FIG. 16 is a functional configuration diagram of an embodiment of the client. In addition to the interface presentation program according to the present invention, the client 101 is configured to include a communication control unit 131, a CIF processing unit 132, a computer 134, an input / output device 135, and a user environment model DB 105 realized by an OS or an application.

通信制御部131は、フィルムDBサーバ102,認証サーバ103,コンテンツサーバ104など、ネットワーク108を介して接続されている他のネットワーク機器との通信を制御する。CIF処理部132はコンピュータ134からの要求に応じて、CIFのデータを通信制御部131経由でフィルムDBサーバ102やコンテンツサーバ104から受信する。CIF処理部132は、サブシステム及びユーザ環境モデルDB105に応じて、CIFのデータの適応を図る。なお、CIF処理部132は,データフィルタリング装置5,データ編成装置6,インターフェースフィルタリング装置10およびインターフェース編成装置11に相当する。   The communication control unit 131 controls communication with other network devices connected via the network 108, such as the film DB server 102, the authentication server 103, and the content server 104. The CIF processing unit 132 receives CIF data from the film DB server 102 or the content server 104 via the communication control unit 131 in response to a request from the computer 134. The CIF processing unit 132 adapts CIF data according to the subsystem and the user environment model DB 105. The CIF processing unit 132 corresponds to the data filtering device 5, the data organization device 6, the interface filtering device 10, and the interface organization device 11.

ユーザ環境モデルDB105は、コンピュータ134からの要求により更新される。例えばユーザや管理者は、入出力装置135を操作してコンピュータ134にユーザ環境モデルDB105の設定や更新を要求することでユーザ環境モデルDB105を手動で更新できる。   The user environment model DB 105 is updated in response to a request from the computer 134. For example, a user or an administrator can manually update the user environment model DB 105 by operating the input / output device 135 and requesting the computer 134 to set or update the user environment model DB 105.

また、コンピュータ134は後述するようなユーザ環境モデルDB105のデータ項目「活動の履歴」に基づくユーザの操作履歴,データ項目「プラットフォーム」に基づくシステム状態又は各種センサーからの情報などに応じて、ユーザ環境モデル104を自動的に更新してもよい。   Further, the computer 134 determines the user environment according to the user operation history based on the data item “activity history” of the user environment model DB 105 as described later, the system state based on the data item “platform”, or information from various sensors. The model 104 may be updated automatically.

コンピュータ134は、ユーザが実行を指示したサブシステムのプログラムであって、CIF処理部132が選択したフレームを受信し、そのフレームに基づくインターフェースを実現する。そのインターフェースにより、コンピュータ134は、入出力装置135を介してユーザ又は機械との間で情報のやり取りを行い、必要な処理を行う。
(クライアントの処理)
以下、図16に表したクライアント101の処理について、フローチャートを参照しつつ説明していく。図17は、本発明によるCIFを用いるクライアントの処理の一例のフローチャートである。
The computer 134 is a subsystem program that the user has instructed to execute. The computer 134 receives a frame selected by the CIF processing unit 132 and realizes an interface based on the frame. Through the interface, the computer 134 exchanges information with the user or machine via the input / output device 135 and performs necessary processing.
(Client processing)
Hereinafter, the processing of the client 101 illustrated in FIG. 16 will be described with reference to a flowchart. FIG. 17 is a flowchart of an example of a client process using the CIF according to the present invention.

入出力装置135を介してユーザからログイン要求を受信すると、コンピュータ134はステップS10に進み、認証サーバ103に対してログイン処理を行う。ログイン処理に利用するユーザID及びパスワードは、例えば入出力装置135を介して取得される。ここで言う入出力装置135には、フロッピー(登録商標)ディスクドライブの他、RF−IDタグなどデータを格納したハードウェア,バイオメトリクスの読み取りを行う装置などが含まれる。コンピュータ134は、通信制御部131経由でユーザID及びパスワードを認証サーバ103に送信して、認証サーバ103にログインする。   When the computer 134 receives a login request from the user via the input / output device 135, the computer 134 proceeds to step S <b> 10 and performs login processing to the authentication server 103. The user ID and password used for the login process are acquired via the input / output device 135, for example. The input / output device 135 mentioned here includes a floppy (registered trademark) disk drive, hardware storing data such as an RF-ID tag, a device for reading biometrics, and the like. The computer 134 logs in the authentication server 103 by transmitting the user ID and password to the authentication server 103 via the communication control unit 131.

ログインした後、コンピュータ134はステップS11に進み、ユーザ環境モデルDB105のデータ更新を行う。ユーザ環境モデルDB105を保持していなければ、コンピュータ134は例えばフィルムDBサーバ102,認証サーバ103等からユーザ環境モデルDB105に格納する情報を取得する。   After logging in, the computer 134 proceeds to step S11 and updates data in the user environment model DB 105. If the user environment model DB 105 is not held, the computer 134 acquires information stored in the user environment model DB 105 from the film DB server 102, the authentication server 103, and the like.

図18は、ユーザ環境モデルDBの一例の構成図である。ユーザ環境モデルDB105はユーザに関する情報を、いわゆる5W1H分類(WHO,WHAT,WHERE,WHEN,WHY,HOW)の観点で分類している。   FIG. 18 is a configuration diagram of an example of the user environment model DB. The user environment model DB 105 classifies information about users from the viewpoint of so-called 5W1H classification (WHO, WHAT, WHERE, WHEN, WHY, HOW).

5W1H分類(WHO)はプロファイル情報を表しており、プロファイル情報に関連するデータ項目を含む。5W1H分類(WHAT)は、動作情報を表しており、動作情報に関連するデータ項目を含む。5W1H分類(WHERE)は場所情報を表しており、場所情報に関連するデータ項目を含む。   The 5W1H classification (WHO) represents profile information and includes data items related to the profile information. The 5W1H classification (WHAT) represents operation information and includes data items related to the operation information. The 5W1H classification (WHERE) represents location information and includes data items related to the location information.

5W1H分類(WHEN)は時間情報を表しており、時間情報に関連するデータ項目を含む。5W1H分類(WHY)は理由情報を表しており、理由情報に関連するデータ項目を含む。5W1H分類(HOW)は手段・方法情報を表しており、手段・方法に関連するデータ項目を含んでいる。   The 5W1H classification (WHEN) represents time information and includes data items related to the time information. The 5W1H classification (WHY) represents reason information and includes data items related to the reason information. The 5W1H classification (HOW) represents means / method information and includes data items related to the means / method.

なお、ユーザ環境モデルDB105を構成するデータ項目は、ユーザが実行を指示したサブシステムに応じて、変化するようにしてもよい。ユーザ環境モデルDB105の具体例は、後述するフローチャートと共に説明する。   Note that the data items constituting the user environment model DB 105 may be changed according to the subsystem that the user has instructed to execute. A specific example of the user environment model DB 105 will be described with a flowchart described later.

ステップS11では、ユーザ環境モデルDB105のデータのうち、例えば場所情報に含まれるデータ項目の住所や時間情報に含まれるデータ項目の時間のように、ログインの度に更新が必要なデータを更新する。ステップS11の処理が終了すると、コンピュータ134はステップS12に進み、次に行う処理がログアウト処理でなければループ1の処理を開始する。ループ1の処理では、コンピュータ134がステップS13に進み、CIF処理部132に対してCIFの適応処理を要求する。   In step S11, data that needs to be updated is updated at each login, such as the address of the data item included in the location information and the time of the data item included in the time information, among the data in the user environment model DB 105. When the process of step S11 ends, the computer 134 proceeds to step S12, and if the next process to be performed is not a logout process, the process of loop 1 is started. In loop 1 processing, the computer 134 proceeds to step S13, and requests the CIF processing unit 132 to perform CIF adaptation processing.

CIF処理部132は、コンピュータ134からの要求に応じて、CIFのデータを通信制御部131経由でフィルムDBサーバ102およびコンテンツサーバ104から受信する。CIF処理部132は、ユーザが実行を指示したサブシステム及びユーザ環境モデルDB105に応じて、CIFの適応処理を行う。すなわち、ステップS13ではユーザへの適応を図る為のCIFのデータのフィルタリング及び編成が行われる。なお、ステップS13の適応処理の詳細は、後述する。   The CIF processing unit 132 receives CIF data from the film DB server 102 and the content server 104 via the communication control unit 131 in response to a request from the computer 134. The CIF processing unit 132 performs CIF adaptation processing according to the subsystem that the user has instructed to execute and the user environment model DB 105. That is, in step S13, the CIF data is filtered and organized for adaptation to the user. Details of the adaptation process in step S13 will be described later.

ステップS14に進み、CIF処理部132はステップS13の適応処理で選択されたフレームをビューのデータでレンダリングする。CIF処理部132は、レンダリングしたフレームをコンピュータ134に送信する。   In step S14, the CIF processing unit 132 renders the frame selected in the adaptive processing in step S13 with view data. The CIF processing unit 132 transmits the rendered frame to the computer 134.

ステップS15に進み、コンピュータ134はCIF処理部132から受信したレンダリングしたフレームを入出力装置135経由でユーザに提示する。次に、コンピュータ134はCIF処理部132から受信したフレームがサイバーオブジェクトを有している場合に、そのサイバーオブジェクトのアクションの有無を判定する。   In step S 15, the computer 134 presents the rendered frame received from the CIF processing unit 132 to the user via the input / output device 135. Next, when the frame received from the CIF processing unit 132 has a cyber object, the computer 134 determines whether or not there is an action of the cyber object.

サイバーオブジェクトのアクションが有ると判定すると(S15において有り)、コンピュータ134はステップS16に進み、サイバーオブジェクトのアクションを実行する。ステップS16では、サイバーオブジェクトのアクションを実行することで、仮想世界または実世界のオブジェクトの動作または状態により、ユーザに情報を提示できる。   If it is determined that there is a cyber object action (Yes in S15), the computer 134 proceeds to step S16 and executes the action of the cyber object. In step S16, by executing the action of the cyber object, information can be presented to the user by the action or state of the object in the virtual world or the real world.

サイバーオブジェクトのアクションを実行したあと、コンピュータ134はステップS17に進む。なお、サイバーオブジェクトのアクションが無いと判定すると(S15において無し)、コンピュータ134はステップS17に進む。ステップS17では、全てのアクションが完了していなければループ2の処理を開始する。   After executing the action of the cyber object, the computer 134 proceeds to step S17. If it is determined that there is no cyber object action (no in S15), the computer 134 proceeds to step S17. In step S17, if all the actions are not completed, the processing of loop 2 is started.

ループ2では、コンピュータ134が、ユーザからの入力の有無を判定する。ユーザからの入力が有ると判定すると(S18において有り)、コンピュータ134はステップS19に進み、ユーザからの入力に対する対応処理を行う。なお、ユーザからの入力が無いと判定すると(S18において無し)、コンピュータ134はステップS20に進み、全てのアクションが完了していなければステップS17に戻り、全てのアクションが完了していればステップS21に進む。ステップS19の処理が終了したときも、コンピュータ134はステップS21に進む。   In loop 2, the computer 134 determines whether or not there is an input from the user. If it is determined that there is an input from the user (Yes in S18), the computer 134 proceeds to Step S19 and performs a process corresponding to the input from the user. If it is determined that there is no input from the user (none in S18), the computer 134 proceeds to step S20, returns to step S17 if all actions are not completed, and returns to step S21 if all actions are completed. Proceed to Even when the process of step S19 ends, the computer 134 proceeds to step S21.

ステップS21では、コンピュータ134が、ステップS19で行ったユーザからの入力に対する対応処理に応じてユーザ環境モデルDB105のデータ更新を行う。ユーザ環境モデルDB105は、データを更新される。ステップS21では、ユーザ環境モデルDB105に格納されているデータのうち、動作情報に含まれるデータ項目の活動の履歴のように、ユーザからの入力に対する対応処理の度に更新が必要なデータを更新する。   In step S21, the computer 134 updates the data in the user environment model DB 105 in accordance with the processing corresponding to the input from the user performed in step S19. The user environment model DB 105 is updated with data. In step S21, among the data stored in the user environment model DB 105, data that needs to be updated is updated every time processing corresponding to the input from the user is performed, such as the activity history of the data item included in the operation information. .

ステップS21の処理が終了すると、コンピュータ134はステップS22に進み、次に行う処理がログアウト処理でなければステップS12に戻り、次に行う処理がログアウト処理であればステップS23に進む。ステップS23では、コンピュータ134が、認証サーバ103に対してログアウト処理を行ったあと処理を終了する。   When the process of step S21 ends, the computer 134 proceeds to step S22, returns to step S12 if the next process to be performed is not a logout process, and proceeds to step S23 if the next process to be performed is a logout process. In step S <b> 23, the computer 134 performs logout processing on the authentication server 103 and then ends the processing.

次に、ユーザ環境モデルDB105の一例として、意思伝達支援システム(以下、単にFCSという)で利用するユーザ環境モデルDB105を用いて、ステップS13のCIFの適応処理を詳細に説明する。   Next, as an example of the user environment model DB 105, the CIF adaptation processing in step S13 will be described in detail using the user environment model DB 105 used in a communication support system (hereinafter simply referred to as FCS).

図19は、CIFの適応処理の一例のフローチャートである。まず、CIF処理部132はCIFのデータを、通信制御部131経由でフィルムDBサーバ102,コンテンツサーバ104から受信する。ステップS31に進み、CIF処理部132はユーザが実行を指示したサブシステムによりフィルムIDを一意に決定し、そのフィルムIDを用いて図9のようなフィルムテーブルから一連のシーンIDを取得する。   FIG. 19 is a flowchart of an example of CIF adaptation processing. First, the CIF processing unit 132 receives CIF data from the film DB server 102 and the content server 104 via the communication control unit 131. In step S31, the CIF processing unit 132 uniquely determines the film ID by the subsystem that the user has instructed to execute, and acquires a series of scene IDs from the film table as shown in FIG. 9 using the film ID.

ステップS32に進み、CIF処理部132はステップS31で取得したシーンIDを用いて図10のようなシーンテーブルからシーンを選択する。さらに、CIF処理部132はユーザ環境モデルDB105に応じてシーンを選択し、そのシーンのシーンIDを用いて図10のようなシーンテーブルから一連のフレームIDを取得する。   In step S32, the CIF processing unit 132 selects a scene from the scene table as shown in FIG. 10 using the scene ID acquired in step S31. Further, the CIF processing unit 132 selects a scene according to the user environment model DB 105, and acquires a series of frame IDs from the scene table as shown in FIG. 10 using the scene ID of the scene.

以下、サイバーフィルムコミュニケーションシステム(cyber−Film Communication System:以下、FCSという)を一例として説明する。FCSは、意思の伝達媒体としてCCFを用い、データの閲覧、検索、操作を行うインターフェースとしてCIFを用いているシステムである。FCSは、コンピュータを用いることにより、障害者や高齢者をはじめとする所謂情報弱者の生活を支援する一連のサブシステムにより構成される。FCSは、(図8図示)サイバーフィルム群65により表現される。FCSのサブシステムは例えば、意思伝達サブシステム、会話補助サブシステム、マルチメディア単語辞書サブシステム、ヒエログリフ学習サブシステムで構成される。各サブシステムは、(図8図示)サイバーフィルム64により表現される。   Hereinafter, a cyber film communication system (hereinafter referred to as FCS) will be described as an example. The FCS is a system that uses the CCF as an intention transmission medium and uses the CIF as an interface for browsing, searching, and operating data. FCS is composed of a series of subsystems that support the lives of so-called information-impaired persons such as disabled persons and elderly persons by using computers. The FCS is represented by a cyber film group 65 (shown in FIG. 8). The FCS subsystem includes, for example, a communication subsystem, a conversation assistance subsystem, a multimedia word dictionary subsystem, and a hieroglyph learning subsystem. Each subsystem is represented by a cyber film 64 (shown in FIG. 8).

図20は、FCSで利用するユーザ環境モデルDBの一例の構成図である。FCSで利用するユーザ環境モデルDB105は、前述したような5W1H分類(WHO,WHAT,WHERE,WHEN,WHY,HOW)で構成されている。   FIG. 20 is a configuration diagram of an example of a user environment model DB used in FCS. The user environment model DB 105 used in the FCS is configured with the 5W1H classification (WHO, WHAT, WHERE, WHEN, WHY, HOW) as described above.

5W1H分類(WHO)はプロファイル情報を表しており、氏名,所属,生年月日,性別,システムにおける役割,障害の種類,発達段階,言語の習熟度,家族,友人,先生及び趣味・嗜好などのデータ項目で構成される。5W1H分類(WHAT)は動作情報を表しており、システムを使って行う活動の種類及び活動の履歴などのデータ項目で構成される。5W1H分類(WHERE)は場所情報を表しており、住所,使用地域,使用場所及び使用施設などのデータ項目で構成される。5W1H分類(WHEN)は時間情報を表しており、時間,曜日,年月日,平日/休日,スケジュール(時間割)及びシステム内の仮想時間などのデータ項目で構成される。   The 5W1H classification (WHO) represents profile information, such as name, affiliation, date of birth, gender, role in the system, type of disability, developmental stage, language proficiency, family, friends, teachers and hobbies / preferences. Consists of data items. The 5W1H classification (WHAT) represents operation information, and is composed of data items such as types of activities performed using the system and history of activities. The 5W1H classification (WHERE) represents location information and includes data items such as an address, a use area, a use place, and a use facility. The 5W1H classification (WHEN) represents time information, and is composed of data items such as time, day of the week, date, weekday / holiday, schedule (timetable), and virtual time in the system.

5W1H分類(WHY)は理由情報を表しており、操作を行う理由,天気などのデータ項目で構成される。5W1H分類(HOW)は手段・方法情報を表しており、プラットフォーム,ネットワーク,インタラクションモード,使用入出力装置,使用センサー機器および使用言語などのデータ項目で構成される。   The 5W1H classification (WHY) represents reason information and is composed of data items such as a reason for performing an operation and weather. The 5W1H classification (HOW) represents means / method information and includes data items such as a platform, a network, an interaction mode, a used input / output device, a used sensor device, and a used language.

ステップS32に続いてステップS33に進み、CIF処理部132はステップS32で取得したフレームIDを用いて、図11のようなフレームテーブルからフレームを選択する。CIF処理部132は、ユーザ環境モデルDB105に応じてフレームを選択し、そのフレームのフレームIDに関連付けられている一連のサイバーオブジェクトIDをフレームテーブルから取得する。ステップS34に進み、CIF処理部132はステップS33で取得した一連のサイバーオブジェクトIDから、ユーザ環境モデルDB105に応じた一連のサイバーオブジェクトIDを選択する。   Progressing to step S33 following step S32, the CIF processing unit 132 selects a frame from the frame table as shown in FIG. 11 using the frame ID acquired in step S32. The CIF processing unit 132 selects a frame according to the user environment model DB 105, and acquires a series of cyber object IDs associated with the frame ID of the frame from the frame table. In step S34, the CIF processing unit 132 selects a series of cyber object IDs corresponding to the user environment model DB 105 from the series of cyber object IDs acquired in step S33.

ステップS35に進み、CIF処理部132は選択した一連のサイバーオブジェクトIDに関連付けられている位置情報,アクション情報およびユーザ入力対応処理情報を取得し、その位置情報,アクション情報およびユーザ入力対応処理情報を用いてアニメーションのスピードや効果音の有無などのパラメータの調整を行う。   In step S35, the CIF processing unit 132 acquires position information, action information, and user input corresponding processing information associated with the selected series of cyber object IDs, and acquires the position information, action information, and user input corresponding processing information. Use to adjust parameters such as the speed of animation and the presence or absence of sound effects.

図19のフローチャートで表したCIFの適応処理では、ユーザ環境モデルDB105に基づき、CIF及びそのCIFに関連付けられているサイバーオブジェクトの選択及び調整を行うことができる。なお、ステップS32,S33,S34で行うユーザ環境モデルDB105に応じたシーンID,フレームID,サイバーオブジェクトIDの選択は図21のようなユーザ環境モデルDB105のデータ項目とCIFの適応処理との関連を表したテーブルに応じて行われる。   In the CIF adaptation processing shown in the flowchart of FIG. 19, the CIF and cyber objects associated with the CIF can be selected and adjusted based on the user environment model DB 105. The selection of the scene ID, frame ID, and cyber object ID corresponding to the user environment model DB 105 performed in steps S32, S33, and S34 is related to the data items of the user environment model DB 105 as shown in FIG. This is done according to the table shown.

例えば図21のテーブルは、CIFの適応処理を行うときに参照するユーザ環境モデルDB105のデータ項目が「○」で表されている。ステップS32で行うユーザ環境モデルDB105に応じたシーンIDの選択では、ユーザ環境モデルDB105のうち、所属,システムにおける役割,障害の種類,発達段階,システムを使って行う活動の種類,使用場所,使用施設,スケジュール(時間割),システム内の仮想時間,操作を行う理由,ネットワークおよび使用入出力装置などのデータ項目が参照される。   For example, in the table of FIG. 21, data items of the user environment model DB 105 referred to when performing CIF adaptation processing are represented by “◯”. In the selection of the scene ID according to the user environment model DB 105 performed in step S32, the affiliation, the role in the system, the type of failure, the stage of development, the type of activity performed using the system, the use place, and the use in the user environment model DB 105. Data items such as facilities, schedule (timetable), virtual time in the system, reason for operation, network and input / output devices used are referenced.

すなわち、シーンID,フレームID,サイバーオブジェクトIDの選択は、CIFの適応処理を行うときに参照するユーザ環境モデルDB105のデータ項目に応じて一義的に行われる。   That is, the selection of the scene ID, frame ID, and cyber object ID is uniquely performed according to the data item of the user environment model DB 105 that is referred to when performing the CIF adaptation process.

このように、プロファイル情報,操作履歴,各種センサー情報,プラットフォームなどを5W1H分類の枠組みで管理するユーザ環境モデルDB105を参照することで、CIF処理部132は各ユーザへの適応が図られたCIFを容易に実現することができる。   In this way, by referring to the user environment model DB 105 that manages profile information, operation history, various sensor information, platforms, and the like in the framework of the 5W1H classification, the CIF processing unit 132 selects the CIF adapted for each user. It can be easily realized.

次に、FCSを構成する意思伝達サブシステムの一例として、一文から成るメッセージ(以下、単文メールという)を送受信するプログラム(以下、F−Mailという)におけるCIFの適応処理を説明する。   Next, CIF adaptation processing in a program (hereinafter referred to as F-Mail) that transmits and receives a message consisting of a single sentence (hereinafter referred to as single text mail) will be described as an example of the communication subsystem constituting the FCS.

例えばユーザ環境モデルDB105のデータ項目「システムを使って行う活動の種類」が「コミュニケーション」であり,データ項目「操作を行う理由」が「単文メールを作成するため」である場合の、F−MailにおけるCIFの適応処理を、前述した図12を用いて説明する。   For example, in the case where the data item “type of activity performed using the system” in the user environment model DB 105 is “communication” and the data item “reason for performing operation” is “to create a simple text mail”, F-Mail The CIF adaptation process will be described with reference to FIG.

フィルムDBサーバ102は、フレームをサブシステム(F1〜F6)及びシーン(S1〜S5)毎に管理している。ステップS1では、CIF処理部132が、ユーザ環境モデルDB105のデータ項目「システムを使って行う活動の種類」およびデータ項目「操作を行う理由」に応じてCIF(F2)を選択する。CIF処理部132は、CIF(F2)のフィルムIDを用いてフィルムテーブルから一連のシーンS1〜S3及びS5のシーンIDを取得する。このCIF(F2)は、ユーザが実行を指示したサブシステムに対応するものである。ステップS1の処理は、図19のステップS31に相当する処理である。   The film DB server 102 manages frames for each subsystem (F1 to F6) and scene (S1 to S5). In step S 1, the CIF processing unit 132 selects CIF (F 2) according to the data item “type of activity performed using the system” and the data item “reason for performing operation” in the user environment model DB 105. The CIF processing unit 132 acquires a scene ID of a series of scenes S1 to S3 and S5 from the film table using the film ID of CIF (F2). This CIF (F2) corresponds to the subsystem that the user has instructed to execute. The process of step S1 is a process corresponding to step S31 of FIG.

ステップS2に進み、CIF処理部132はステップS1で取得したシーンIDを用いてシーンS1〜S3及びS5を選択する。そして、CIF処理部132はユーザ環境モデルDB105のデータ項目「システムにおける役割」,「障害の種類」,「発達段階」,「使用入出力装置」に応じてシーンS1〜S3及びS5からシーンS2,S3及びS5を選択する。CIF処理部132は、シーンS2,S3及びS5のシーンIDを用いてシーンテーブルから一連のフレームIDを取得する。ステップS2の処理は、図19のステップS32に相当する処理である。   In step S2, the CIF processing unit 132 selects scenes S1 to S3 and S5 using the scene ID acquired in step S1. Then, the CIF processing unit 132 converts the scenes S1 to S3 and S5 to the scenes S2, S2 according to the data items “role in the system”, “type of failure”, “development stage”, and “use input / output device” of the user environment model DB 105. Select S3 and S5. The CIF processing unit 132 acquires a series of frame IDs from the scene table using the scene IDs of the scenes S2, S3, and S5. The process of step S2 is a process corresponding to step S32 of FIG.

ステップS3に進み、CIF処理部132はステップS2で取得したフレームIDを用いてフレームテーブルからフレームを選択する。CIF処理部132は、ユーザ環境モデルDB105のデータ項目「障害の種類」,「発達段階」等に応じてシーンS2,S3及びS5に対応付けられているフレーム群から必要なフレームを選択し、シーンS2′,S3′及びS5′とする。   In step S3, the CIF processing unit 132 selects a frame from the frame table using the frame ID acquired in step S2. The CIF processing unit 132 selects a necessary frame from the frame group associated with the scenes S2, S3, and S5 according to the data items “type of failure”, “development stage”, etc. in the user environment model DB 105, and Let S2 ', S3' and S5 '.

例えばシーンS3では、ユーザ環境モデルDB105のデータ項目「発達段階」からヒエログリフの使用セルが「いつ」,「どこで」,「だれが」,「なにをしている」の4つであるとした場合、シーンS3に対応付けられているフレーム群から4枚のパネルフレームが選択されてシーンS3′となる。CIF処理部132は、選択されたフレームのフレームIDに関連付けられている一連のサイバーオブジェクトIDをフレームテーブルからフレーム毎に取得する。ステップS3の処理は、図19のステップS33に相当する処理である。   For example, in the scene S3, it is assumed that the usage cells of the hieroglyph are “when”, “where”, “who”, “what are you doing” from the data item “development stage” of the user environment model DB 105 In this case, four panel frames are selected from the frame group associated with the scene S3 to become the scene S3 ′. The CIF processing unit 132 acquires a series of cyber object IDs associated with the frame ID of the selected frame for each frame from the frame table. The process of step S3 is a process corresponding to step S33 of FIG.

次に、CIF処理部132はユーザ環境モデルDB105のデータ項目「障害の種類」,「発達段階」,「使用入出力装置」等に応じて、ステップS3で取得したサイバーオブジェクトIDから必要なサイバーオブジェクトIDをフレーム毎に選択する。例えばユーザ環境モデルDB105の「発達段階」からユーザが一度に2つのものまで対応できる場合、ステップS4に進み、標準で5つのサイバーオブジェクトを表示可能なフレーム91から2つのサイバーオブジェクトを表示可能なフレーム92に変更する。ステップS4の処理は図19のステップS34に相当する処理である。   Next, the CIF processing unit 132 determines the necessary cyber object from the cyber object ID acquired in step S3 according to the data item “type of failure”, “development stage”, “used input / output device”, etc. in the user environment model DB 105. ID is selected for each frame. For example, when the user can cope with two things at a time from the “development stage” of the user environment model DB 105, the process proceeds to step S 4, and a frame that can display two cyber objects from a frame 91 that can display five cyber objects as standard. Change to 92. The process of step S4 is a process corresponding to step S34 of FIG.

次に、CIF処理部132は各フレームに関連付けられているサイバーオブジェクトの調整を行う。CIF処理部132は、ユーザ環境モデルDB105のデータ項目「天気」,「時間」に応じてフレームの背景を変化させたり、データ項目「趣味・嗜好」,「使用場所」に応じてフレーム91,92に表示させるサイバーオブジェクトを変化させたり、データ項目「言葉の習熟度」に応じて使用する漢字の範囲を変化させたり、データ項目「使用センサー情報」に応じてユーザの脈拍が速い場合に、アニメーション等をゆったりとしたスピードに変化させたり、データ項目「使用入出力装置」に応じてフレーム91,92等に表示させるサイバーオブジェクトの配置を変化させたりできる。   Next, the CIF processing unit 132 adjusts the cyber object associated with each frame. The CIF processing unit 132 changes the background of the frame according to the data items “weather” and “time” of the user environment model DB 105, and frames 91 and 92 according to the data items “hobby / preference” and “use place”. When the cyber object to be displayed is changed, the range of kanji used is changed according to the data item “language proficiency”, or the user's pulse is fast according to the data item “used sensor information”, animation Etc. can be changed to a slow speed, or the arrangement of cyber objects to be displayed on the frames 91, 92, etc. can be changed according to the data item “input / output device used”.

ここで、図17及び図19のフローチャートで表したクライアント101の処理を、より具体的に説明する。ステップS10では、ログイン処理が行われる。ステップS11では、ユーザ環境モデルDB105が更新される。ステップS11において更新されたユーザ環境モデルDB105の一部は例えば図22のように構成される。   Here, the processing of the client 101 shown in the flowcharts of FIGS. 17 and 19 will be described more specifically. In step S10, a login process is performed. In step S11, the user environment model DB 105 is updated. A part of the user environment model DB 105 updated in step S11 is configured as shown in FIG. 22, for example.

ステップS13では、CIFの適応処理が行われる。フィルムテーブルは、例えば図23のように構成される。図19のステップS31では、ユーザ環境モデルDB105のデータ項目「システムを使って行う活動の種類」が「メールの送受信」であるため、フィルムID「1」のCIFを選択する。   In step S13, CIF adaptation processing is performed. The film table is configured as shown in FIG. 23, for example. In step S31 of FIG. 19, since the data item “type of activity performed using the system” in the user environment model DB 105 is “mail transmission / reception”, the CIF with the film ID “1” is selected.

このCIFには7つ以上のシーンが含まれているが、ユーザ環境モデルDB105のデータ項目「システムにおける役割」が「ユーザー」であるため、フィルタリングによりシーン番号「2」−「7」のシーンへのアクセスが許可される。なお、データ項目「システムにおける役割」が「スーパーユーザー」である場合はシーン番号「1」−「7」の他、より多くのシーンにアクセスが許可される。   This CIF includes seven or more scenes, but since the data item “role in system” of the user environment model DB 105 is “user”, the scenes of scene numbers “2” to “7” are filtered. Access is allowed. When the data item “role in the system” is “superuser”, access is permitted to more scenes in addition to the scene numbers “1” to “7”.

また、ユーザ環境モデルDB105のデータ項目「使用入出力装置」に「プリンター」が無いため、さらにフィルタリングを行い、シーン番号「2」−「5」,「7」へのアクセスが最終的に許可される。ステップS32では、ユーザ環境モデルDB105のデータ項目「操作を行う理由」が「メールを作成するため」である為、メール作成を行うシーン番号「3」に対応するシーンID「100003」のシーンが選択される。   Further, since there is no “printer” in the data item “used input / output device” of the user environment model DB 105, further filtering is performed and access to the scene numbers “2”-“5”, “7” is finally permitted. The In step S32, since the data item “reason for operation” in the user environment model DB 105 is “to create a mail”, the scene with the scene ID “100003” corresponding to the scene number “3” for creating the mail is selected. Is done.

シーンテーブルは、例えば図24のように構成される。ユーザ環境モデルDB105のデータ項目「発達段階」が「主語,述語,場所,時間の概念は理解可能、選択肢の数は9まで」であるため、フィルタリングによりフレーム番号「1」−「6」のフレームへのアクセスが許可される。また、ユーザ環境モデルDB105のデータ項目「システム内の仮想時間」に応じて更にフィルタリングを行い、フレームを選択する。   The scene table is configured as shown in FIG. 24, for example. Since the data item “development stage” of the user environment model DB 105 is “Understanding the concept of subject, predicate, place, and time, and the number of options is up to nine”, the frames of frame numbers “1” to “6” are filtered. Access to is allowed. Further, filtering is further performed according to the data item “virtual time in the system” of the user environment model DB 105 to select a frame.

ステップS34では、ステップS33で選択したフレームのフレームIDに対応付けられているサイバーオブジェクトの選択を、ユーザ環境モデルDB105に応じて行う。ステップS35では、ステップS34で選択したサイバーオブジェクトのサイバーオブジェクトIDに関連付けられているパラメータの調整を行った後、図17のステップS14でレンダリングしたフレームが表示される。   In step S34, the cyber object associated with the frame ID of the frame selected in step S33 is selected according to the user environment model DB 105. In step S35, after adjusting the parameters associated with the cyber object ID of the cyber object selected in step S34, the frame rendered in step S14 of FIG. 17 is displayed.

例えばステップS33でフレーム番号「3」のフレームが選択された場合、ステップS34ではフレーム番号「3」のフレームのフレームIDに対応付けられているサイバーオブジェクトをフレームテーブルから選択し、図17のステップS14で図25のフレームが表示される。   For example, when the frame having the frame number “3” is selected in step S33, the cyber object associated with the frame ID of the frame having the frame number “3” is selected from the frame table in step S34, and step S14 in FIG. The frame of FIG. 25 is displayed.

図25のフレームは、スクリーンペット251,差出人252,宛先253,ヒエログリフ254,背景255,回答候補の打ち上げオブジェクト256,回答候補257を表すサイバーオブジェクトを含むように構成されている。なお、図25のフレームに含まれる回答候補257を表すサイバーオブジェクトは、主語の選択を行うための質問、データ項目「活動の履歴」に含まれる既にヒエログリフ254に入力されているサイバーオブジェクトおよび頻度情報に基づき、膨大な数のサイバーオブジェクトをフィルタリング及び編成して選択されたものである。   The frame in FIG. 25 is configured to include a cyber object representing a screen pet 251, a sender 252, a destination 253, a hieroglyph 254, a background 255, an answer candidate launch object 256, and an answer candidate 257. The cyber object representing the answer candidate 257 included in the frame of FIG. 25 includes a question for selecting a subject, a cyber object already included in the hieroglyph 254 included in the data item “activity history”, and frequency information. Based on the above, a large number of cyber objects are selected by filtering and organization.

また、ステップS35では、ステップS34で選択したサイバーオブジェクトに対して以下のようなパラメータの調整を行う。例えばステップS35では、ユーザ環境モデルDB105のデータ項目「性別」に基づき異なるスクリーンペットを選択できる。また、ユーザ環境モデルDB105のデータ項目「使用言語」に基づきセリフの言語を選択できる。   In step S35, the following parameters are adjusted for the cyber object selected in step S34. For example, in step S35, different screen pets can be selected based on the data item “gender” in the user environment model DB 105. Further, the language of the speech can be selected based on the data item “language used” in the user environment model DB 105.

また、ユーザ環境モデルDB105のデータ項目「氏名」に基づき表示する名前や写真を選択できる。また、ユーザ環境モデルDB105のデータ項目「発達段階」に基づき使用不可のセルを灰色で表示し、現在選択を行っているセルをハイライト表示できる。また、ユーザ環境モデルDB105のデータ項目「天気」,「時間」に基づき背景を選択できる。   In addition, a name and a photo to be displayed can be selected based on the data item “name” in the user environment model DB 105. In addition, based on the data item “development stage” of the user environment model DB 105, the unusable cell can be displayed in gray, and the currently selected cell can be highlighted. Further, the background can be selected based on the data items “weather” and “time” in the user environment model DB 105.

また、ユーザ環境モデルDB105のデータ項目「性別」に基づき異なるサイバーオブジェクトを選択できる。また、ユーザ環境モデルDB105のデータ項目「発達段階」,「使用入出力装置」に基づき一度に表示するサイバーオブジェクトの数を選択できる。また、ユーザ環境モデルDB105のデータ項目「使用センサー情報」の脈拍,「活動の履歴」の反応速度に基づき回答候補打ち上げオブジェクト256からの回答候補の打ち上げ速度を選択させることができる。   Different cyber objects can be selected based on the data item “gender” in the user environment model DB 105. Further, the number of cyber objects to be displayed at a time can be selected based on the data items “development stage” and “used input / output device” of the user environment model DB 105. Further, the launch speed of answer candidates from the answer candidate launch object 256 can be selected based on the pulse of the data item “use sensor information” in the user environment model DB 105 and the reaction speed of “activity history”.

例えば反応速度が遅い場合は、回答候補打ち上げオブジェクト256からの回答候補の打ち上げ速度を落とす。また、反応速度が速い場合であっても、脈拍が上がってきた場合は回答候補打ち上げオブジェクト256からの回答候補の打ち上げ速度を落とす。また、ユーザ環境モデルDB105のデータ項目「氏名」に基づきサイバーオブジェクトを選択できる。   For example, when the response speed is slow, the launch speed of answer candidates from the answer candidate launch object 256 is decreased. Even if the response speed is high, the response candidate launch rate from the answer candidate launch object 256 is reduced when the pulse increases. Also, a cyber object can be selected based on the data item “name” in the user environment model DB 105.

さらに、テキスト表示部を持つ全てのサイバーオブジェクトについて、ユーザ環境モデルDB105のデータ項目「使用言語」,「言語の習熟度」に基づき、日本語表示または英語表示の何れを表示するか、日本語表示の場合に何年生までの漢字を使うかを選択させることができる。   Further, for all cyber objects having a text display portion, whether to display Japanese or English based on the data items “language of use” and “language proficiency” of the user environment model DB 105 is displayed. You can choose how many years of kanji you want to use.

以上のCIFの適応処理の結果、図17のステップS14でフレームのレンダリング処理が行われる。このとき、サイバーオブジェクトを表示する位置は、フレームテーブルの位置情報に従う。位置情報は、座標で直接指定されている場合と、ユーザ環境モデルDB105に基づき決定されるサイバーオブジェクトの表示順および一度に表示するサイバーオブジェクトの数などに応じて動的に決定する場合とがある。   As a result of the above CIF adaptation processing, frame rendering processing is performed in step S14 of FIG. At this time, the position where the cyber object is displayed follows the position information of the frame table. The position information may be directly specified by coordinates, or may be dynamically determined according to the display order of cyber objects determined based on the user environment model DB 105, the number of cyber objects displayed at a time, and the like. .

図25のフレームの場合、スクリーンペット251,差出人252,宛先253,ヒエログリフ254,背景255,回答候補の打ち上げオブジェクト256を表すサイバーオブジェクトの位置情報は座標で直接指定されている。回答候補257を表すサイバーオブジェクトの位置情報は、サイバーオブジェクトの表示順および一度に表示するサイバーオブジェクトの数などに応じて動的に決定される。   In the case of the frame in FIG. 25, the position information of the cyber object representing the screen pet 251, the sender 252, the destination 253, the hieroglyph 254, the background 255, the launch object 256 of the answer candidate is directly specified by coordinates. The position information of the cyber object representing the answer candidate 257 is dynamically determined according to the display order of the cyber objects, the number of cyber objects to be displayed at one time, and the like.

また、入出力装置135に応じてサイバーオブジェクトを選択する処理が異なるため、レンダリング処理を行うときに、サイバーオブジェクトの選択方法を示すマーカ(例えば矢印や数字)を付与する。   In addition, since processing for selecting a cyber object differs depending on the input / output device 135, a marker (for example, an arrow or a number) indicating a method for selecting a cyber object is added when performing rendering processing.

図26はデータ項目「使用入出力装置」が図27のようなワンボタンスイッチのときのサイバーオブジェクトの配置を表したフレームの一例のイメージ図である。図26では回答候補を表すサイバーオブジェクトが1つずつ順番に表示され、ワンボタンスイッチが押下されているときにフレームに表示されているサイバーオブジェクトが選択される。   FIG. 26 is an image diagram of an example of a frame representing an arrangement of cyber objects when the data item “used input / output device” is a one-button switch as shown in FIG. In FIG. 26, cyber objects representing answer candidates are displayed one by one in order, and the cyber object displayed in the frame is selected when the one button switch is pressed.

データ項目「使用入出力装置」がマウスやタッチパネルのときのサイバーオブジェクトの配置を表したフレームは、前述した図13(a)のようになる。また、データ項目「使用入出力装置」がテンキーのときのサイバーオブジェクトの配置を表したフレームは、前述した図13(b)のようになる。また、データ項目「使用入出力装置」がジョイスティックのときのサイバーオブジェクトの配置を表したフレームは、前述した図13(c)のようになる。なお、前述したヒエログリフ,マルチメディア単語,スクリーンペットの詳細は特開2003−84876に記載されているため、説明を省略する。   A frame representing the arrangement of cyber objects when the data item “used input / output device” is a mouse or a touch panel is as shown in FIG. Further, the frame representing the arrangement of the cyber objects when the data item “used input / output device” is the numeric keypad is as shown in FIG. Further, the frame representing the placement of the cyber object when the data item “used input / output device” is a joystick is as shown in FIG. Details of the above-described hieroglyphs, multimedia words, and screen pets are described in Japanese Patent Application Laid-Open No. 2003-84876, and thus description thereof is omitted.

次に、FCSを構成するマルチメディア単語辞典サブシステムにおけるCIFの適応処理を説明する。マルチメディア単語辞典サブシステムは、幼児,小学生,障害児や失語症の人を対象としたコンピュータ版絵辞典である。マルチメディア単語辞典サブシステムでは、サイバーオブジェクトを使用したマルチビューによる説明によって、意味を直感的且つ深く理解させることでユーザの語彙を増やすことを目的としている。   Next, CIF adaptation processing in the multimedia word dictionary subsystem constituting the FCS will be described. The Multimedia Word Dictionary Subsystem is a computerized picture dictionary for young children, elementary school students, disabled children, and people with aphasia. The multimedia word dictionary subsystem aims to increase the user's vocabulary by making the meaning intuitively and deeply understood by multi-view explanation using cyber objects.

例えばユーザ環境モデルDB105のデータ項目「システムを使って行う活動の種類」が「語彙学習」である場合、マルチメディア単語辞典サブシステムのCIFの適応処理は前述した図5に示すように行われる。各フレームでは、フレームテーブルのフレームID,サイバーオブジェクトIDに応じてサイバーオブジェクトの位置が決定されてレンダリングが行われる。ここまでの処理は、例えば図17のステップS10〜S14に相当する。   For example, when the data item “type of activity performed using the system” in the user environment model DB 105 is “vocabulary learning”, the CIF adaptation processing of the multimedia word dictionary subsystem is performed as shown in FIG. 5 described above. In each frame, the position of the cyber object is determined according to the frame ID and the cyber object ID of the frame table, and rendering is performed. The processing so far corresponds to, for example, steps S10 to S14 in FIG.

また、フレームテーブルのアクション情報に応じてサイバーオブジェクトのアクションの有無を判定し、アクションが有ればアクション情報に応じたサイバーオブジェットのアクションが実行される。ここまでの処理は、例えば図17のステップS15,S16に相当する。   Also, the presence / absence of a cyber object action is determined according to the action information in the frame table, and if there is an action, the cyber object action according to the action information is executed. The processing so far corresponds to, for example, steps S15 and S16 in FIG.

図5のフレーム53では、女の子が絵を描くアクションとお母さんが電話をかけるアクションとが実行される。各サイバーオブジェクトはユーザからのクリックに応じてフレームテーブルのユーザ入力対応処理情報を参照し、インタラクションモードによって異なる対応処理を行う。ここまでの処理は、例えば図17のステップS17〜S20の処理に相当する。   In the frame 53 of FIG. 5, an action in which a girl draws a picture and an action in which a mother makes a telephone call are executed. Each cyber object refers to user input response processing information in the frame table in response to a click from the user, and performs different response processing depending on the interaction mode. The processing so far corresponds to, for example, the processing in steps S17 to S20 in FIG.

また、図5のフレーム51では、オペレーションモードで家をクリックすると家の中を表すフレーム53〜55を表示するが、説明モードで家をクリックすると家に関するマルチビューによる説明を画像や音声,触覚情報などで提示するフレーム52を表示する。   In addition, in the frame 51 of FIG. 5, when the house is clicked in the operation mode, frames 53 to 55 representing the inside of the house are displayed. However, when the house is clicked in the explanation mode, the explanation about the house by the multi-view is displayed. A frame 52 to be presented is displayed.

マルチビューによる説明には、特開2003−84876に記載されている複数のヒエログリフによる説明も含まれる。例えばフレーム53で女の子をクリックした場合、説明として「女の子がクレヨンで絵を描いている」というヒエログリフが呼び出される。このヒエログリフからユーザ環境モデルDB105のデータ項目「発達段階」に応じて使用可能なヒエログリフセルを判別し、サイバーオブジェクトを提示しているのがフレーム56である。   The explanation by multiview includes explanation by a plurality of hieroglyphs described in JP-A-2003-84876. For example, when a girl is clicked on the frame 53, the hieroglyph “Girl is drawing a picture with crayons” is called as an explanation. From this hieroglyph, it is the frame 56 that discriminates hieroglyph cells that can be used according to the data item “development stage” of the user environment model DB 105 and presents a cyber object.

フレーム56では、「女の子(Who)」,「絵を描いている(What)」,「クレヨンで(How)」のうち、「女の子(Who)」と「絵を描いている(What)」とを提示している。さらに、フレーム56では、必要に応じて各サイバーオブジェクトの詳細な説明を表すパネルフレーム群57を呼び出すことも可能である。   In the frame 56, among “Girl (Who)”, “Drawing a picture (What)”, and “Crayon (How)”, “Girl (Who)” and “Drawing (What)” Presents. Further, in the frame 56, a panel frame group 57 representing a detailed description of each cyber object can be called as necessary.

実施例1によれば、インターフェース提示システムの全てのサイバーオブジェクトをマルチビューにより説明できる。また、ユーザ環境モデルDB105に応じてCIFのフィルタリングを行うことにより、適応が図られたインターフェースをユーザ又は機械に提示できる。また、ユーザ環境モデルDB105に応じてCIFの編成を行うことにより、時間の概念を取り入れたインターフェースをユーザ又は機械に提示できる。さらに、ユーザ環境モデルDB105を利用して、ユーザ又は機械に提示するインターフェースを簡素化できる。   According to the first embodiment, all cyber objects of the interface presentation system can be described by multiview. Further, by performing CIF filtering according to the user environment model DB 105, an adapted interface can be presented to the user or machine. Also, by organizing the CIF according to the user environment model DB 105, an interface incorporating the concept of time can be presented to the user or machine. Furthermore, the interface presented to the user or machine can be simplified using the user environment model DB 105.

(マルチメディアヒエログリフ)
まず、CCFの一例としてのマルチメディアヒエログリフについて説明する。本発明で用いるマルチメディアヒエログリフとは、文章を所謂5W1Hのデータ形式で表すためのものであり、いつ(時間),どこで(場所),誰が(主語),何をどうする(述語),なぜ(理由),どのように(手段)を表す6つのヒエログリフセルで構成される。
(Multimedia hieroglyph)
First, a multimedia hieroglyph as an example of CCF will be described. The multimedia hieroglyph used in the present invention is for expressing a sentence in a so-called 5W1H data format. When (time), where (location), who (subject), what (predicate), why (reason) ), Composed of six hieroglyph cells representing how (means).

また、サイバーオブジェクトの一例としてのマルチメディア単語について説明する。マルチメディア単語は、触覚情報,テキスト,ロボット制御情報,音,静止画,動画などの人間用または機械用のデータから成るビューの総称をいい、事物や動作の過程などを様々な形態により多面的に表している。マルチメディア単語は、例えば事物や動作の過程を直感的に理解させる為に少なくとも一つのビューが組み合わされたマルチビューで構成されている。   A multimedia word as an example of a cyber object will be described. A multimedia word is a generic term for views consisting of human or machine data such as tactile information, text, robot control information, sound, still images, and moving images, and is multifaceted with various forms of things and movement processes. It represents. The multimedia word is composed of, for example, a multi-view in which at least one view is combined to intuitively understand a thing or a process of movement.

なお、マルチメディアヒエログリフ,マルチメディア単語の詳細は特開2003−84876に記載されているため、説明を省略する。図28は、マルチメディア単語を配置したマルチメディアヒエログリフの一例のイメージ図である。図28のマルチメディアヒエログリフは、いつ(時間),どこで(場所),誰が(主語),何をどうする(述語),なぜ(理由),どのように(手段)を表すマルチメディア単語が配置されることで、意味を持つようになる。   The details of the multimedia hieroglyph and the multimedia word are described in Japanese Patent Application Laid-Open No. 2003-84876, and thus the description thereof is omitted. FIG. 28 is an image diagram of an example of a multimedia hieroglyph in which multimedia words are arranged. In the multimedia hieroglyph of FIG. 28, multimedia words representing when (time), where (location), who (subject), what to do (predicate), why (reason), and how (means) are arranged. That makes sense.

図28のようなマルチメディアヒエログリフは、ユーザが伝達したい意思に応じた文章を所謂5W1Hのデータ形式で表している。したがって、図28のようなマルチメディアヒエログリフをユーザに表現させ、マルチメディアヒエログリフに配置されたマルチメディア単語を構成するマルチビューを利用することで、ユーザや機械などのサイバーオブジェクトにユーザの意思を容易に伝達することが可能である。   The multimedia hieroglyph as shown in FIG. 28 represents a sentence according to a user's intention to transmit in a so-called 5W1H data format. Therefore, by making the user express the multimedia hieroglyph as shown in FIG. 28 and using the multi-view that composes the multimedia words arranged in the multimedia hieroglyph, the user's intention is easily made to cyber objects such as users and machines. Can be communicated to.

サイバーオブジェクトが人間の場合、テキストだけでなく静止画,動画,音などのマルチビューを提供することで、ユーザの意志を容易に伝達することができる。サイバーオブジェクトが機械の場合、触覚情報,テキスト,ロボット制御情報,音,静止画,動画などのマルチビューを提供することで、より多くの情報を提示でき、ユーザの意思を効果的に実行させることが可能である。   When the cyber object is a human being, it is possible to easily convey the user's will by providing multi-views such as still images, moving images, and sounds as well as text. If the cyber object is a machine, more information can be presented by providing multi-views such as tactile information, text, robot control information, sound, still images, and videos, and the user's intention can be effectively executed. Is possible.

例えば主語「ロボット」,述語「移動する」,場所「人Aの所」を表すマルチメディアヒエログリフの場合、人Aに関する情報を写真,声紋,背格好などのマルチビューでユーザの意志をロボットに与えることで、ロボットの持つ多様なセンシング技術を用いて人Aの特定精度を向上させ、ユーザの意思を確実に実行させることが可能となる。   For example, in the case of a multimedia hieroglyph representing the subject “robot”, the predicate “moving”, and the place “person A's place”, information about the person A is given to the robot in multiple views such as photographs, voiceprints, and dressed appearances. Thus, it is possible to improve the accuracy of specifying the person A by using various sensing technologies of the robot and to surely execute the user's intention.

本発明の学習システムはマルチメディアヒエログリフを用いて文章を作成し、その文章に応じた動作を、実世界に存在するオブジェクト(例えばおもちゃのロボット,先生や友達)又は仮想世界に存在するオブジェクト(例えば画面上の2D又は3Dのキャラクタ)に行わせることで、仮想世界と実世界とを関連付けてユーザに学習させている。   The learning system of the present invention creates a sentence using a multimedia hieroglyph and performs an action corresponding to the sentence by an object (for example, a toy robot, a teacher or a friend) existing in the real world or an object (for example, a virtual world) 2D or 3D character on the screen), the virtual world and the real world are associated with each other to allow the user to learn.

特に知的障害を持つユーザは、マルチメディアヒエログリフを用いて作成した文章に応じて実世界又は仮想世界に存在するサイバーオブジェクトが動作するため、直感的に文章の意味を理解でき、意思伝達能力を効果的に向上させることが可能である。   In particular, users with intellectual disabilities can understand the meaning of sentences intuitively and have the ability to communicate, because cyber objects that exist in the real world or virtual world operate according to sentences created using multimedia hieroglyphs. It is possible to improve effectively.

以下、本発明によるインターフェース提示システムの一例として、マルチメディアヒエログリフを用いた学習システムについて説明する。マルチメディアヒエログリフを用いた学習システムのシステム構成は、図14のシステム構成と同様である。   Hereinafter, a learning system using multimedia hieroglyphs will be described as an example of an interface presentation system according to the present invention. The system configuration of the learning system using multimedia hieroglyphs is the same as the system configuration of FIG.

クライアント101は、CCFを利用して入出力装置13を制御することで、系統的にユーザ又は機械への適応が図られた各種インターフェースを実現している。フィルムDBサーバ102は、CCFのデータが格納されているフィルムDBの管理を行う。また、フォルムDBサーバ102はクライアント101等からの要求に応じて、CCFのデータをクライアント101に送信する。認証サーバ103は、ユーザ認証に利用される。コンテンツサーバ104は、CCFで用いられる画像、音、触覚データなどのコンテンツデータを管理している。
(機能構成)
図29は、クライアントの一実施例の機能構成図である。クライアント101は、本発明によるインターフェース提示プログラムの他、OSやアプリケーションによって実現される通信制御部131,コンピュータ134,入出力装置135,CCF処理部351およびユーザ環境モデルDB105を有するように構成される。なお、図29のクライアント101の機能構成のうち図16の機能構成図と同一部分には同一符号を付して説明を省略する。なお、CCF処理部351は,データフィルタリング装置5,データ編成装置6,インターフェースフィルタリング装置10およびインターフェース編成装置11に相当する。
The client 101 implements various interfaces that are systematically adapted to the user or machine by controlling the input / output device 13 using the CCF. The film DB server 102 manages a film DB in which CCF data is stored. In addition, the form DB server 102 transmits CCF data to the client 101 in response to a request from the client 101 or the like. The authentication server 103 is used for user authentication. The content server 104 manages content data such as images, sounds, and tactile data used in the CCF.
(Functional configuration)
FIG. 29 is a functional block diagram of an embodiment of a client. In addition to the interface presentation program according to the present invention, the client 101 is configured to include a communication control unit 131, a computer 134, an input / output device 135, a CCF processing unit 351, and a user environment model DB 105 realized by an OS or an application. In the functional configuration of the client 101 in FIG. 29, the same parts as those in the functional configuration diagram in FIG. The CCF processing unit 351 corresponds to the data filtering device 5, the data organization device 6, the interface filtering device 10, and the interface organization device 11.

CCF処理部351は、フレーム処理部352,マルチメディアヒエログリフ処理部353およびマルチメディアヒエログリフ提示部354を有している。フレーム処理部352は、コンピュータ134からの要求に応じて、CCFのデータを通信制御部131経由でフィルムDBサーバ102やコンテンツサーバ104から受信する。フレーム処理部352は、ユーザが実行を指示したサブシステムおよびユーザ環境モデルDB105に応じて、CCFのデータの適応を図る。   The CCF processing unit 351 includes a frame processing unit 352, a multimedia hieroglyph processing unit 353, and a multimedia hieroglyph presentation unit 354. The frame processing unit 352 receives CCF data from the film DB server 102 and the content server 104 via the communication control unit 131 in response to a request from the computer 134. The frame processing unit 352 adapts the CCF data according to the subsystem that the user has instructed to execute and the user environment model DB 105.

マルチメディアヒエログリフ処理部353は、フレーム処理部352が適応を図ったフレームにマルチメディアヒエログリフが含まれるとき、マルチメディアヒエログリフの作成に関する処理を行う。マルチメディアヒエログリフ提示部354は、作成されたマルチメディアヒエログリフがフレームに含まれるときに、マルチメディアヒエログリフの提示に関する処理を行う。なお、マルチメディアヒエログリフの作成又は提示に関する処理の詳細は後述する。   The multimedia hieroglyph processing unit 353 performs processing related to creation of the multimedia hieroglyph when the multimedia hieroglyph is included in the frame adapted by the frame processing unit 352. The multimedia hieroglyph presentation unit 354 performs processing related to the presentation of the multimedia hieroglyph when the created multimedia hieroglyph is included in the frame. Details of processing related to creation or presentation of the multimedia hieroglyph will be described later.

コンピュータ134は、ユーザが実行を指示したサブシステムのプログラムであって、CCF処理部351からフレームを受信し、そのフレームに基づくインターフェースを実現する。そのインターフェースにより、コンピュータ134は、入出力装置135を介してユーザ又は機械との間で情報のやり取りを行い、必要な処理を行う。
(クライアントの処理)
以下、図29に表したクライアント101の処理について、フローチャートを参照しつつ説明していく。図30は、マルチメディアヒエログリフを用いた学習方法を実現するクライアントの処理の一例のフローチャートである。なお、図30のフローチャートは図17のフローチャートと一部を除いて同様であるため、適宜説明を省略する。
The computer 134 is a subsystem program that the user instructs to execute. The computer 134 receives a frame from the CCF processing unit 351 and realizes an interface based on the frame. Through the interface, the computer 134 exchanges information with the user or machine via the input / output device 135 and performs necessary processing.
(Client processing)
Hereinafter, the processing of the client 101 illustrated in FIG. 29 will be described with reference to a flowchart. FIG. 30 is a flowchart of an example of a client process that implements a learning method using multimedia hieroglyphs. Note that the flowchart of FIG. 30 is the same as the flowchart of FIG.

ステップS100,S101の処理は、図17のステップS10,S11と同様であるため説明を省略する。コンピュータ134はステップS102に進み、次に行う処理がログアウト処理でなければループ1の処理を開始する。ループ1の処理では、コンピュータ134がステップS103に進み、CCF処理部351のフレーム処理部352に対してCCFの適応処理を要求する。   The processing in steps S100 and S101 is the same as that in steps S10 and S11 in FIG. The computer 134 proceeds to step S102, and starts loop 1 processing if the next processing to be performed is not logout processing. In loop 1 processing, the computer 134 proceeds to step S103, and requests the frame processing unit 352 of the CCF processing unit 351 to perform adaptive processing of CCF.

フレーム処理部352は、コンピュータ134からの要求に応じて、CCFのデータを通信制御部131経由でフィルムDBサーバ102およびコンテンツサーバ104から受信する。次に、フレーム処理部352はユーザが実行を指示したサブシステム及びユーザ環境モデルDB105に応じてCCFの適応処理を行う。すなわち、ステップS103ではユーザへの適応を図る為のCCFのデータのフィルタリング及び編成が行われる。ステップS104〜S106の処理は、図17のステップS14〜S16と同様であるため説明を省略する。   The frame processing unit 352 receives CCF data from the film DB server 102 and the content server 104 via the communication control unit 131 in response to a request from the computer 134. Next, the frame processing unit 352 performs CCF adaptation processing according to the subsystem that the user has instructed to execute and the user environment model DB 105. That is, in step S103, the CCF data is filtered and organized for adaptation to the user. The processing in steps S104 to S106 is the same as that in steps S14 to S16 in FIG.

ステップS107では、全てのアクションが完了していなければステップS108に進み、ループ2の処理を開始する。ステップS108では、コンピュータ134が、ユーザからの入力の有無を判定する。   In step S107, if all the actions have not been completed, the process proceeds to step S108, and the processing of loop 2 is started. In step S108, the computer 134 determines whether or not there is an input from the user.

ユーザからの入力が有ると判定すると(S108において有り)、コンピュータ134はステップS109に進み、ユーザからの入力に対する対応処理を行う。例えばユーザからの入力がマルチメディアヒエログリフの作成に関するものであれば、マルチメディアヒエログリフ処理部353はマルチメディアヒエログリフの作成に関する処理を行う。ユーザからの入力がマルチメディアヒエログリフの提示に関するものであれば、マルチメディアヒエログリフ提示部354はマルチメディアヒエログリフの提示に関する処理を行う。   If it is determined that there is an input from the user (Yes in S108), the computer 134 proceeds to Step S109 and performs a response process for the input from the user. For example, if the input from the user relates to creation of a multimedia hieroglyph, the multimedia hieroglyph processing unit 353 performs processing related to creation of the multimedia hieroglyph. If the input from the user is related to the presentation of the multimedia hieroglyph, the multimedia hieroglyph presentation unit 354 performs processing related to the presentation of the multimedia hieroglyph.

ユーザからの入力が無いと判定した場合(S108において無し)、コンピュータ134はステップS110に進み、全てのアクションが完了しているか否かを判定する。コンピュータ134は、全てのアクションが完了していなければステップS107に戻り、全てのアクションが完了していればステップS111に進む。また、ステップS109の処理が終了したときも、コンピュータ134はステップS111に進む。なお、ステップS111〜S113の処理は、図17のステップS21〜S23と同様であるため説明を省略する。   If it is determined that there is no input from the user (no in S108), the computer 134 proceeds to step S110, and determines whether all actions have been completed. If all actions have not been completed, the computer 134 returns to step S107, and if all actions have been completed, the process proceeds to step S111. Also, when the process of step S109 ends, the computer 134 proceeds to step S111. In addition, since the process of step S111-S113 is the same as that of step S21-S23 of FIG. 17, description is abbreviate | omitted.

図30のフローチャートの処理を行うことで、図28のようなマルチメディアヒエログリフを作成するヒエログリフ作成処理及びマルチメディアヒエログリフを提示するヒエログリフ提示処理を次のように行うことができる。   By performing the processing of the flowchart of FIG. 30, the hieroglyph creation processing for creating the multimedia hieroglyph as shown in FIG. 28 and the hieroglyph presentation processing for presenting the multimedia hieroglyph can be performed as follows.

ステップS100〜S106の処理では、マルチメディア単語が配置されていないマルチメディアヒエログリフを含むフレームがユーザに提示される。ステップS107〜S110の処理では、ユーザからの入力に応じてマルチメディアヒエログリフにマルチメディア単語が配置される。ステップS111の処理では、ヒエログリフセルに対するマルチメディア単語の配置に応じてユーザ環境モデルDB105のデータが更新される。   In the process of steps S100 to S106, a frame including a multimedia hieroglyph without a multimedia word is presented to the user. In the processing of steps S107 to S110, multimedia words are arranged in the multimedia hieroglyphs according to the input from the user. In the process of step S111, the data in the user environment model DB 105 is updated according to the arrangement of the multimedia words with respect to the hieroglyph cell.

例えばステップS111の処理では、動作情報に含まれるデータ項目「活動の履歴」や時間情報に含まれるデータ項目の「システム内の仮想時間」のように、ステップS109で行ったユーザからの入力に対する対応処理に応じて更新が必要なデータを更新する。   For example, in the process of step S111, the response to the input from the user performed in step S109 such as the data item “activity history” included in the operation information and the “virtual time in the system” of the data item included in the time information. Data that needs to be updated is updated according to the processing.

クライアント101は、上述のステップS102〜S112を繰り返し行うことでマルチメディア単語が配置されたマルチメディアヒエログリフを作成する。マルチメディア単語が配置されたマルチメディアヒエログリフが作成されたあと、ステップS109の処理ではユーザからヒエログリフ提示処理の開始が指示されたとする。   The client 101 creates a multimedia hieroglyph in which multimedia words are arranged by repeatedly performing the above steps S102 to S112. It is assumed that after the multimedia hieroglyph having the multimedia words arranged therein is created, the start of the hieroglyph presentation process is instructed by the user in the process of step S109.

ステップS111の処理では、ステップS109で指示のあったヒエログリフ提示処理に応じてユーザ環境モデルDB105のデータが更新される。次のステップS102〜S106の処理では、例えばユーザが実行を指示したサブシステム及びユーザ環境モデルDB105に応じてマルチメディアヒエログリフを含むフレームをユーザに提示する。   In the process of step S111, the data in the user environment model DB 105 is updated according to the hieroglyph presentation process instructed in step S109. In the processing of the next steps S102 to S106, for example, a frame including the multimedia hieroglyph is presented to the user according to the subsystem that the user has instructed to execute and the user environment model DB 105.

ステップS105,S106の処理では、作成されたマルチメディアヒエログリフの内容に応じて、後述するようにサイバーオブジェクトのアクションが実行される。ステップS107〜110の処理では、サイバーオブジェクトのアクションがユーザの予期したアクションだったか否かをユーザから入力される。ステップS111の処理では、入力された内容に応じてユーザ環境モデルDB105のデータが更新される。   In the processing of steps S105 and S106, the action of the cyber object is executed as described later according to the contents of the created multimedia hieroglyph. In the processes of steps S107 to S110, the user inputs whether or not the action of the cyber object is an action expected by the user. In the process of step S111, the data in the user environment model DB 105 is updated according to the input content.

この後、ステップS109で入力された内容に応じてヒエログリフ提示処理を繰り返すようにしてもよいし、次のヒエログリフ作成処理を開始するようにしてもよいし、ログアウトするようにしてもよい。   Thereafter, the hieroglyph presentation process may be repeated according to the content input in step S109, the next hieroglyph creation process may be started, or the user may be logged out.

次に、図30のフローチャートの処理により実現されるマルチメディアヒエログリフを用いた学習方法の手順について説明する。図31は、マルチメディアヒエログリフを用いた学習方法の一実施例のフローチャートである。   Next, the procedure of the learning method using multimedia hieroglyphs realized by the processing of the flowchart of FIG. 30 will be described. FIG. 31 is a flowchart of an embodiment of a learning method using multimedia hieroglyphs.

ステップS131では、ユーザからの指示により、サイバーオブジェクトの動作をマルチメディアヒエログリフで記述するヒエログリフ作成処理が行われる。ステップS132では、ステップS131で記述されたマルチメディアヒエログリフをユーザに提示し、そのマルチメディアヒエログリフの内容を音声で読み上げ、さらにマルチメディアヒエログリフの内容に応じてサイバーオブジェクトのアクションを実行させるヒエログリフ提示処理が行われる。   In step S131, a hieroglyph creation process for describing the operation of the cyber object in a multimedia hieroglyph is performed according to an instruction from the user. In step S132, the hieroglyph presentation process is performed in which the multimedia hieroglyph described in step S131 is presented to the user, the contents of the multimedia hieroglyph are read out by voice, and the action of the cyber object is executed according to the contents of the multimedia hieroglyph. Done.

ステップS133では、ステップS132でサイバーオブジェクトの実行したアクションがユーザの予期したものであったか否かをユーザに確認する評価処理が行われる。ステップS133の評価処理では、サイバーオブジェクトの実行したアクションが予期したものであったか否かを、例えば入出力装置135を介して取得する。   In step S133, an evaluation process is performed to confirm to the user whether or not the action executed by the cyber object in step S132 is what the user expected. In the evaluation process of step S133, it is acquired via the input / output device 135, for example, whether or not the action executed by the cyber object was expected.

ステップS134では、サイバーオブジェクトの実行したアクションがユーザの予期したものであったか否かに応じて、もう一度ステップS132のヒエログリフ提示処理を行うか否かを判定する。ヒエログリフ提示処理をもう一度行うと判定した場合(S134においてYES)、ステップS132に進む。一方、ヒエログリフ提示処理をもう一度行わないと判定した場合(S134においてNO)、ステップS135に進む。   In step S134, it is determined whether or not to perform the hieroglyph presentation process in step S132 again depending on whether or not the action executed by the cyber object is what the user expected. If it is determined that the hieroglyph presentation process is to be performed again (YES in S134), the process proceeds to step S132. On the other hand, when it is determined that the hieroglyph presentation process is not performed again (NO in S134), the process proceeds to step S135.

ステップS135では、処理を終了するか継続するかをユーザに確認し、処理を終了する旨の指示があれば(S135においてYES)処理を終了する。また、処理を継続する旨の指示があれば(S135においてNO)、ステップS131に戻り処理を継続する。   In step S135, the user is confirmed whether to end or continue the process, and if there is an instruction to end the process (YES in S135), the process ends. If there is an instruction to continue the process (NO in S135), the process returns to step S131 to continue the process.

以下、図31のフローチャートのステップS131〜133の処理について図面を参照しつつ詳細に説明していく。ステップS131のヒエログリフ作成処理では、サイバーオブジェクトの動作を1つ以上のマルチメディア単語で記述したマルチメディアヒエログリフを作成する。サイバーオブジェクトは、それぞれ固有の動作を持っている。   Hereinafter, the processing of steps S131 to S133 in the flowchart of FIG. 31 will be described in detail with reference to the drawings. In the hieroglyph creation process in step S131, a multimedia hieroglyph is described in which the action of the cyber object is described by one or more multimedia words. Each cyber object has its own behavior.

したがって、サイバーオブジェクトが実行可能なマルチメディアヒエログリフを作成させる為には、予めサイバーオブジェクトと、そのサイバーオブジェクトが実行可能なマルチメディア単語との関連付けを必要とする。図32は、サイバーオブジェクトとマルチメディア単語とを関連付けた単語リストテーブルの一例の構成図である。   Therefore, in order to create a multimedia hieroglyph that can be executed by a cyber object, an association between the cyber object and a multimedia word that can be executed by the cyber object is required in advance. FIG. 32 is a configuration diagram of an example of a word list table in which cyber objects and multimedia words are associated with each other.

図32の単語リストテーブルは、サイバーオブジェクトID,単語ID,5W1H情報などのデータ項目を含むように構成されている。サイバーオブジェクトIDは、主語となるサイバーオブジェクトの識別子である。単語IDは、サイバーオブジェクトに対する動作命令に使用可能なマルチメディア単語の識別子である。5W1H情報は、マルチメディア単語がマルチメディアヒエログリフのどのヒエログリフセルで使用可能かを表す情報である。   The word list table in FIG. 32 is configured to include data items such as a cyber object ID, a word ID, and 5W1H information. The cyber object ID is an identifier of the subject cyber object. The word ID is an identifier of a multimedia word that can be used in an operation command for a cyber object. The 5W1H information is information indicating which hieroglyph cell of the multimedia hieroglyph can the multimedia word be used.

ステップS131のヒエログリフ作成処理では、例えば図32の単語リストテーブルを用いて図33のフローチャートに表す手順で行われる。図33は、ヒエログリフ作成処理の一例のフローチャートである。   The hieroglyph creation processing in step S131 is performed according to the procedure shown in the flowchart of FIG. 33 using, for example, the word list table of FIG. FIG. 33 is a flowchart of an example of hieroglyph creation processing.

ステップS141に進み、CCF処理部351のマルチメディアヒエログリフ処理部353はユーザ環境モデルDB105及び表示中のフレームに応じて使用可能なサイバーオブジェクトのサイバーオブジェクトIDを取得する。   In step S141, the multimedia hieroglyph processing unit 353 of the CCF processing unit 351 acquires a cyber object ID of a cyber object that can be used according to the user environment model DB 105 and the frame being displayed.

ステップS141では、手段・方法情報に含まれるデータ項目「使用入出力装置」などに応じて、マルチメディアヒエログリフ処理部353が、使用可能なサイバーオブジェクトのサイバーオブジェクトIDを取得する。ステップS142に進み、マルチメディアヒエログリフ処理部353はマルチメディアヒエログリフで使用されているマルチメディア単語の解析を行い、マルチメディア単語の単語IDとそのマルチメディア単語が配置されているヒエログリフセルの位置情報を取得する。   In step S141, the multimedia hieroglyph processing unit 353 acquires cyber object IDs of usable cyber objects according to the data item “used input / output device” included in the means / method information. In step S142, the multimedia hieroglyph processing unit 353 analyzes the multimedia words used in the multimedia hieroglyph, and obtains the word ID of the multimedia word and the position information of the hieroglyph cell in which the multimedia word is arranged. get.

マルチメディアヒエログリフ処理部353は、ステップS141で取得したサイバーオブジェクトIDとステップS142で取得した単語ID及びヒエログリフセルの位置情報を用いて単語リストテーブルの検索を行い、作成中のマルチメディアヒエログリフで実行可能なサイバーオブジェクトのサイバーオブジェクトIDを取得する。   The multimedia hieroglyph processing unit 353 searches the word list table using the cyber object ID acquired in step S141, the word ID acquired in step S142, and the position information of the hieroglyph cell, and can be executed with the multimedia hieroglyph being created. Get the cyber object ID of the correct cyber object.

ステップS143に進み、マルチメディアヒエログリフ処理部353はステップS142で取得したサイバーオブジェクトIDと入出力装置135を介してユーザの指定したヒエログリフセルの位置情報とに基づき、単語リストテーブルから使用可能なマルチメディア単語の単語IDを取得し、その単語IDのマルチメディア単語を入出力装置135経由でユーザに提示する。   In step S143, the multimedia hieroglyph processing unit 353 uses the multimedia that can be used from the word list table based on the cyber object ID acquired in step S142 and the position information of the hieroglyph cell specified by the user via the input / output device 135. The word ID of the word is acquired, and the multimedia word of the word ID is presented to the user via the input / output device 135.

ステップS144に進み、ユーザは入出力装置135を操作し、ステップS143で提示されたマルチメディア単語を選択する。ユーザは、ポインティングデバイスによるクリックと、実物,ミニチュア又はカードの提示(RF−IDタグの読み込み,カメラによる撮影など)と、音声入力との少なくとも1つの方法により、提示されたマルチメディア単語を選択する。マルチメディアヒエログリフ処理部353は、ユーザにより選択されたマルチメディア単語の単語IDを入出力装置135経由で取得する。   In step S144, the user operates the input / output device 135 to select the multimedia word presented in step S143. The user selects the presented multimedia word by at least one method of clicking with a pointing device, presenting an actual object, miniature or card (reading an RF-ID tag, photographing with a camera, etc.) and voice input. . The multimedia hieroglyph processing unit 353 acquires the word ID of the multimedia word selected by the user via the input / output device 135.

ステップS145に進み、マルチメディアヒエログリフ処理部353はユーザにより選択されたマルチメディア単語を、ユーザの指定したヒエログリフセルに配置する。ステップS146に進み、マルチメディアヒエログリフ処理部353は、マルチメディアヒエログリフが完成したか否かを判定する。マルチメディアヒエログリフが完成したと判定すると(S146においてYES)、マルチメディアヒエログリフ処理部353は、ヒエログリフ作成処理を終了する。一方、マルチメディアヒエログリフが完成していないと判定すると(S146においてNO)、マルチメディアヒエログリフ処理部353は、ステップS142に戻り、ヒエログリフ作成処理を継続する。   In step S145, the multimedia hieroglyph processing unit 353 places the multimedia word selected by the user in the hieroglyph cell designated by the user. Proceeding to step S146, the multimedia hieroglyph processing unit 353 determines whether or not the multimedia hieroglyph has been completed. If it is determined that the multimedia hieroglyph has been completed (YES in S146), the multimedia hieroglyph processing unit 353 ends the hieroglyph creation process. On the other hand, when it is determined that the multimedia hieroglyph is not completed (NO in S146), the multimedia hieroglyph processing unit 353 returns to step S142 and continues the hieroglyph creation process.

図33のヒエログリフ作成処理を具体例を挙げて説明する。例えば単語リストテーブルのサイバーオブジェクトIDには、「おもちゃの犬」,「スクリーンペットのペンギン」,「先生」を表すサイバーオブジェクトIDが登録されているものとする。つまり、マルチメディアヒエログリフの主語は「おもちゃの犬」,「スクリーンペットのペンギン」,「先生」を表すマルチメディア単語の何れかを用いることができる。   The hieroglyph creation process of FIG. 33 will be described with a specific example. For example, it is assumed that cyber object IDs representing “toy dog”, “screen pet penguin”, and “teacher” are registered in the cyber object ID of the word list table. That is, the multimedia hieroglyph subject can be any of the multimedia words representing “toy dog”, “screen pet penguin”, and “teacher”.

また、単語リストテーブルの単語IDには、おもちゃの犬に対応させて「走る」,「吠える」,「お手をする」を表すマルチメディア単語が登録され、スクリーンペットのペンギンに対応させて「走る」,「ジャンプする」,「宙返りをする」を表すマルチメディア単語が登録され、先生に対応させて「走る」,「ジャンプする」,「歌う」を表すマルチメディア単語が登録されている。   Also, in the word ID of the word list table, multimedia words representing “running”, “barking”, and “handing” corresponding to the toy dog are registered, and “word” is associated with the screen pet penguin “ Multimedia words representing “run”, “jump”, and “turn somersault” are registered, and multimedia words representing “run”, “jump”, and “sing” are registered in correspondence with the teacher.

このような単語リストテーブルを用いて主語と述語からなるマルチメディアヒエログリフを作成するヒエログリフ作成処理は次のようになる。ステップS141では、マルチメディアヒエログリフ処理部353が、使用可能なサイバーオブジェクトとして、おもちゃの犬,スクリーンペットのペンギン及び先生のサイバーオブジェクトIDを取得する。   Hieroglyph creation processing for creating a multimedia hieroglyph composed of a subject and a predicate using such a word list table is as follows. In step S141, the multimedia hieroglyph processing unit 353 acquires toy dogs, screen pet penguins, and teacher cyber object IDs as usable cyber objects.

ステップS142に進み、マルチメディアヒエログリフ処理部353はマルチメディアヒエログリフのヒエログリフセルが空白であるので、ステップS143に進む。ステップS143では、マルチメディアヒエログリフ処理部353が、ステップS141で取得したサイバーオブジェクトIDに基づき、使用可能なマルチメディア単語として、走る,吠える,お手をする,ジャンプする,宙返りをする,歌うの単語IDを単語リストテーブルから取得し、その単語IDのマルチメディア単語を入出力装置135経由でユーザに提示する。   Proceeding to step S142, the multimedia hieroglyph processing unit 353 proceeds to step S143 because the hieroglyph cell of the multimedia hieroglyph is blank. In step S143, the multimedia hieroglyph processing unit 353 uses the multimedia object ID acquired in step S141 as a usable multimedia word to run, bark, do, jump, flip over, sing a word The ID is acquired from the word list table, and the multimedia word of the word ID is presented to the user via the input / output device 135.

ステップS144に進み、ユーザは入出力装置135を操作し、ステップS143で提示されたマルチメディア単語のうち、「ジャンプする」を選択したものとする。マルチメディアヒエログリフ処理部353は、ユーザにより選択された「ジャンプする」を表すマルチメディア単語の単語IDを入出力装置135経由で取得する。   In step S144, it is assumed that the user operates the input / output device 135 and selects “jump” from the multimedia words presented in step S143. The multimedia hieroglyph processing unit 353 acquires the word ID of the multimedia word representing “jump” selected by the user via the input / output device 135.

ステップS145に進み、マルチメディアヒエログリフ処理部353はユーザにより選択された「ジャンプする」を表すマルチメディア単語をユーザの指定したヒエログリフセルに配置する。ステップS146に進み、マルチメディアヒエログリフ処理部353はマルチメディアヒエログリフが完成していないと判定し(S146においてNO)、ステップS142に戻る。   In step S145, the multimedia hieroglyph processing unit 353 places the multimedia word representing “jump” selected by the user in the hieroglyph cell designated by the user. Proceeding to step S146, the multimedia hieroglyph processing unit 353 determines that the multimedia hieroglyph is not completed (NO in S146), and returns to step S142.

ステップS142では、マルチメディアヒエログリフ処理部353が、マルチメディアヒエログリフの述語として「ジャンプする」を表すマルチメディア単語が配置されているため、使用可能なサイバーオブジェクトIDと、述語として「ジャンプする」を表すマルチメディア単語を取りうるサイバーオブジェクトIDとを条件に単語リストテーブルの検索を行い、スクリーンペットのペンギンおよび先生のサイバーオブジェクトIDを取得する。   In step S142, since the multimedia word representing “jump” is arranged as the multimedia hieroglyph predicate, the multimedia hieroglyph processing unit 353 represents the usable cyber object ID and “jump” as the predicate. The word list table is searched on the condition of the cyber object ID that can take the multimedia word, and the cyber object ID of the screen pet penguin and the teacher is acquired.

ステップS143では、マルチメディアヒエログリフ処理部353が、ステップS142で取得したサイバーオブジェクトIDに基づき、主語の候補としてスクリーンペットのペンギンおよび先生を表すマルチメディア単語を入出力装置135経由でユーザに提示する。例えばマルチメディアヒエログリフの述語として「歌う」を表すマルチメディア単語が配置されていた場合、ステップS143では先生を表すマルチメディア単語が入出力装置135経由でユーザに提示される。   In step S143, the multimedia hieroglyph processing unit 353 presents multimedia words representing penguins and teachers of screen pets as subject candidates to the user via the input / output device 135 based on the cyber object ID acquired in step S142. For example, when a multimedia word representing “singing” is arranged as a predicate of the multimedia hieroglyph, the multimedia word representing the teacher is presented to the user via the input / output device 135 in step S143.

ステップS144に進み、ユーザはステップS143で提示されたマルチメディア単語からスクリーンペットのペンギンを選択したものとする。マルチメディアヒエログリフ処理部353は、ユーザにより選択されたスクリーンペットのペンギンを表すマルチメディア単語の単語IDを入出力装置135経由で取得する。   Proceeding to step S144, it is assumed that the user has selected a screen pet penguin from the multimedia words presented at step S143. The multimedia hieroglyph processing unit 353 acquires the word ID of the multimedia word representing the penguin of the screen pet selected by the user via the input / output device 135.

ステップS145に進み、マルチメディアヒエログリフ処理部353はユーザにより選択されたスクリーンペットのペンギンを表すマルチメディア単語をユーザの指定したヒエログリフセルに配置する。ステップS146に進み、マルチメディアヒエログリフ処理部353はマルチメディアヒエログリフが完成したと判定し(S146においてYES)、ヒエログリフ作成処理を終了する。   In step S145, the multimedia hieroglyph processing unit 353 places a multimedia word representing the penguin of the screen pet selected by the user in the hieroglyph cell specified by the user. Proceeding to step S146, the multimedia hieroglyph processing unit 353 determines that the multimedia hieroglyph has been completed (YES in S146), and ends the hieroglyph creation process.

以上、図33のヒエログリフ作成処理によれば、「ペンギンがジャンプする」というマルチメディアヒエログリフを作成することができる。なお、マルチメディアヒエログリフは述語以外のヒエログリフセルにマルチメディア単語を配置することにより、サイバーオブジェクトの動作を詳細に記述することが可能である。   As described above, according to the hieroglyph creation process of FIG. 33, a multimedia hieroglyph “a penguin jumps” can be created. The multimedia hieroglyph can describe the operation of the cyber object in detail by arranging the multimedia word in the hieroglyph cell other than the predicate.

次に、ステップS132のヒエログリフ提示処理について説明する。ステップS132のヒエログリフ提示処理では、ステップS131のヒエログリフ作成処理で記述されたマルチメディアヒエログリフをユーザに表示し、そのマルチメディアヒエログリフの内容を音声で読み上げ、さらにマルチメディアヒエログリフの内容に応じてサイバーオブジェクトのアクションを実行させる。   Next, the hieroglyph presentation process in step S132 will be described. In the hieroglyph presentation process in step S132, the multimedia hieroglyph described in the hieroglyph creation process in step S131 is displayed to the user, and the contents of the multimedia hieroglyph are read out by voice. Let the action be executed.

ステップS132のヒエログリフ提示処理は、例えば図34のフローチャートに表す手順で行われる。図34は、ヒエログリフ提示処理の一例のフローチャートである。ステップS151に進み、CCF処理部351のマルチメディアヒエログリフ提示部354はステップS131のヒエログリフ作成処理で作成したマルチメディアヒエログリフを例えば入出力装置135に表示してユーザに提示し、そのマルチメディアヒエログリフの内容を音声で読み上げる。   The hieroglyph presentation process in step S132 is performed, for example, according to the procedure shown in the flowchart of FIG. FIG. 34 is a flowchart of an example of hieroglyph presentation processing. In step S151, the multimedia hieroglyph presentation unit 354 of the CCF processing unit 351 displays the multimedia hieroglyph created by the hieroglyph creation process in step S131 on the input / output device 135, for example, and presents it to the user. Read out aloud.

ステップS152に進み、マルチメディアヒエログリフ提示部354はサイバーオブジェクトの一例として画面上のスクリーンペットが音声又は画面表示の少なくとも1つの方法により、これからアクションを行うサイバーオブジェクトへユーザを誘導する。ステップS153に進み、マルチメディアヒエログリフに記述された全てのサイバーオブジェクトのアクションが終了していなければ、マルチメディアヒエログリフ提示部354はステップS154に進む。   In step S152, the multimedia hieroglyph presenting unit 354 guides the user to the cyber object that will perform an action by using at least one method in which a screen pet on the screen as an example of the cyber object uses voice or screen display. Proceeding to step S153, if the actions of all the cyber objects described in the multimedia hieroglyph are not completed, the multimedia hieroglyph presenting unit 354 proceeds to step S154.

ステップS154では、マルチメディアヒエログリフ提示部354が、マルチメディアヒエログリフの主語として配置されているマルチメディア単語のサイバーオブジェクトIDを取得する。ステップS155に進み、マルチメディアヒエログリフ提示部354はステップS154で取得したサイバーオブジェクトIDを用いて動作命令変換関数テーブルの検索を行い、動作命令変換関数を取得する。   In step S154, the multimedia hieroglyph presentation unit 354 acquires the cyber object ID of the multimedia word arranged as the subject of the multimedia hieroglyph. In step S155, the multimedia hieroglyph presentation unit 354 searches the motion command conversion function table using the cyber object ID acquired in step S154, and acquires the motion command conversion function.

図35は、動作命令変換関数テーブルの一例の構成図である。図35の動作命令変換関数テーブルは、サイバーオブジェクトID,動作命令変換関数などのデータ項目を含むように構成されている。サイバーオブジェクトIDは、動作命令を送信するサイバーオブジェクトの識別子である。動作命令変換関数は、マルチメディアヒエログリフを動作命令に変換する関数である。   FIG. 35 is a configuration diagram of an example of the operation command conversion function table. The operation command conversion function table of FIG. 35 is configured to include data items such as a cyber object ID and an operation command conversion function. The cyber object ID is an identifier of a cyber object that transmits an operation command. The operation command conversion function is a function for converting a multimedia hieroglyph into an operation command.

ステップS156に進み、マルチメディアヒエログリフ提示部354はステップS155で取得した動作命令変換関数を用いて、後述するようにマルチメディアヒエログリフをサイバーオブジェクトの動作命令に変換する。ここで、サイバーオブジェクトに応じて変換される動作命令の種類は、次のようになる。   Proceeding to step S156, the multimedia hieroglyph presenting unit 354 converts the multimedia hieroglyph into a cyber object motion command, as will be described later, using the motion command conversion function acquired in step S155. Here, the types of operation commands converted according to the cyber object are as follows.

例えばサイバーオブジェクトが人間の場合、動作命令は人間に実行させるアクションの内容を視覚,聴覚,触覚情報の少なくとも一つで表現可能な機器に、アクションの内容を表現させる為のものとなる。また、サイバーオブジェクトがコンピュータから操作可能なロボットやミニチュア等の機械や機器の場合、動作命令は機器や機器を動作させる為の信号(例えば赤外線,Bluetoothなど)となる。また、サイバーオブジェクトが画面上の2D又は3Dのキャラクターなどのオブジェクトの場合、動作命令はオブジェクトを動作させるためのコンピュータ命令(例えばビデオの演者の場合、該当するビデオクリップの取得と再生を行うコンピュータ命令)となる。   For example, when the cyber object is a human, the action command is for causing the device capable of expressing the content of the action to be executed by the human by at least one of visual, auditory, and tactile information to express the content of the action. When the cyber object is a machine or device such as a robot or a miniature that can be operated from a computer, the operation command is a signal (for example, infrared rays, Bluetooth, etc.) for operating the device or the device. In addition, when the cyber object is an object such as a 2D or 3D character on the screen, the operation command is a computer command for operating the object (for example, in the case of a video performer, a computer command for acquiring and playing the corresponding video clip). )

ステップS157に進み、マルチメディアヒエログリフ提示部354はステップS156で変換した動作命令をサイバーオブジェクトに直接又は間接的に送信する。ステップS158に進み、サイバーオブジェクトは直接又は間接的に受信した動作命令に応じてアクションを実行する。   In step S157, the multimedia hieroglyph presentation unit 354 transmits the motion command converted in step S156 directly or indirectly to the cyber object. Proceeding to step S158, the cyber object executes an action in accordance with the operation command received directly or indirectly.

そして、ステップS159に進み、マルチメディアヒエログリフ提示部354はマルチメディアヒエログリフに記述されている全てのサイバーオブジェクトのアクションが終了していなければ、ステップS153に戻り、ヒエログリフ提示処理を継続する。なお、マルチメディアヒエログリフ提示部354は、マルチメディアヒエログリフ321に記述されている全てのサイバーオブジェクトのアクションが終了していれば、ヒエログリフ提示処理を終了する。   Then, the process proceeds to step S159, and if the action of all cyber objects described in the multimedia hieroglyph has not ended, the multimedia hieroglyph presentation unit 354 returns to step S153 and continues the hieroglyph presentation process. The multimedia hieroglyph presentation unit 354 terminates the hieroglyph presentation process if the actions of all the cyber objects described in the multimedia hieroglyph 321 have been completed.

図34のヒエログリフ提示処理を具体例を挙げて説明する。例えばコンピュータから赤外線で操作可能なおもちゃの犬34に動作命令を与える図3のようなマルチメディアヒエログリフ32のヒエログリフ提示処理を一例として説明する。マルチメディアヒエログリフ32には、主語に「犬」を表すマルチメディア単語,述語に「あるく」を表すマルチメディア単語が配置されているものとする。   The hieroglyph presentation process of FIG. 34 will be described with a specific example. For example, the hieroglyph presentation process of the multimedia hieroglyph 32 shown in FIG. 3 for giving an operation command to a toy dog 34 that can be operated by infrared rays from a computer will be described as an example. In the multimedia hieroglyph 32, a multimedia word representing “dog” as a subject and a multimedia word representing “aruku” as a predicate are arranged.

このようなマルチメディアヒエログリフ32を提示するヒエログリフ提示処理は以下のようになる。ステップS151に進み、CCF処理部351のマルチメディアヒエログリフ提示部354は、「犬があるく」というマルチメディアヒエログリフ32と、「犬が歩きます」という日本語のテキストとを例えば入出力装置135に表示することでユーザに提示し、スクリーンペット33が「犬が歩きます」という内容を音声で読み上げる。   The hieroglyph presentation process for presenting such a multimedia hieroglyph 32 is as follows. In step S151, the multimedia hieroglyph presenting unit 354 of the CCF processing unit 351 sends the multimedia hieroglyph 32 “The dog is there” and the Japanese text “The dog is walking” to the input / output device 135, for example. By displaying it, it is presented to the user, and the screen pet 33 reads out the content “Dog walks” by voice.

ステップS152に進み、マルチメディアヒエログリフ提示部354はスクリーンペット33に音声又は画面表示の少なくとも1つの方法により、「さあ、犬を見て」という指示を出させ、これからアクションを行うおもちゃの犬34へユーザを誘導する。ユーザがヘッドマウンティングディスプレイを装着している場合、スクリーンペット33が実際におもちゃの犬34の近くに移動して指差しを行うといった拡張現実感を用いた誘導を行うことも可能である。   Proceeding to step S152, the multimedia hieroglyph presentation unit 354 causes the screen pet 33 to give an instruction "Look at the dog" by at least one of voice or screen display, and to the toy dog 34 that will perform an action from now on. Guide users. When the user is wearing a head mounting display, guidance using augmented reality is possible, such as the screen pet 33 actually moving near the toy dog 34 and pointing.

ステップS153に進み、マルチメディアヒエログリフ提示部354はマルチメディアヒエログリフ32に記述されている全てのサイバーオブジェクトのアクションが終了していないので、ステップS154に進む。ステップS154では、マルチメディアヒエログリフ提示部354が、マルチメディアヒエログリフ321の主語として配置されているマルチメディア単語に応じておもちゃの犬34のサイバーオブジェクトIDを取得する。   Proceeding to step S153, the multimedia hieroglyph presentation unit 354 proceeds to step S154 because the actions of all the cyber objects described in the multimedia hieroglyph 32 have not been completed. In step S154, the multimedia hieroglyph presentation unit 354 acquires the cyber object ID of the toy dog 34 according to the multimedia word arranged as the subject of the multimedia hieroglyph 321.

ステップS155に進み、マルチメディアヒエログリフ提示部354はステップS154で取得したおもちゃの犬34のサイバーオブジェクトIDを用いて動作命令変換関数テーブルの検索を行い、おもちゃの犬34の動作命令変換関数fdog(h)を取得する。ここで、hはマルチメディアヒエログリフ32を表す。   In step S155, the multimedia hieroglyph presentation unit 354 searches the motion command conversion function table using the cyber object ID of the toy dog 34 acquired in step S154, and operates the motion command conversion function fdog (h ) To get. Here, h represents the multimedia hieroglyph 32.

例えば動作命令変換関数fdog(h)はマルチメディアヒエログリフ32のヒエログリフIDに応じて、動作命令対応テーブルから動作命令を検索する関数であるとする。図36は、動作命令対応テーブルの一例の構成図である。動作命令対応テーブルは、ヒエログリフID,動作命令などのデータ項目を含むように構成されている。ヒエログリフIDは、マルチメディアヒエログリフ32の識別子である。動作命令は、サイバーオブジェクトに動作命令を行うための情報である。   For example, it is assumed that the operation command conversion function fdog (h) is a function for retrieving an operation command from the operation command correspondence table according to the hieroglyph ID of the multimedia hieroglyph 32. FIG. 36 is a configuration diagram of an example of the operation command correspondence table. The operation command correspondence table is configured to include data items such as a hieroglyph ID and an operation command. The hieroglyph ID is an identifier of the multimedia hieroglyph 32. The action command is information for issuing an action command to the cyber object.

この場合、ステップS156に進み、マルチメディアヒエログリフ提示部354は「犬が歩く」というマルチメディアヒエログリフ32のヒエログリフIDから犬のおもちゃ34を歩かせる赤外線の信号を取得する。ステップS157に進み、マルチメディアヒエログリフ提示部354はステップS156で取得した赤外線の信号を例えば入出力装置135経由で犬のおもちゃ34に送信する。   In this case, the process proceeds to step S156, and the multimedia hieroglyph presentation unit 354 acquires an infrared signal for walking the toy 34 of the dog from the hieroglyph ID of the multimedia hieroglyph 32 that “the dog walks”. In step S157, the multimedia hieroglyph presentation unit 354 transmits the infrared signal acquired in step S156 to the dog toy 34 via the input / output device 135, for example.

ステップS158に進み、犬のおもちゃ34は例えば入出力装置135から赤外線の信号を受信し、その赤外線の信号に応じて「歩く」というアクションを実行する。ステップS159に進み、マルチメディアヒエログリフ提示部354はマルチメディアヒエログリフ32に記述されている全てのサイバーオブジェクトのアクションが終了したため、ヒエログリフ提示処理を終了する。図34のヒエログリフ提示処理は、「犬が歩く」というマルチメディアヒエログリフ32の内容に応じて、犬のおもちゃ34を実際に歩かせることができる。   In step S158, the dog toy 34 receives an infrared signal from the input / output device 135, for example, and executes an action of “walking” in response to the infrared signal. In step S159, the multimedia hieroglyph presenting unit 354 terminates the hieroglyph presenting process because the actions of all the cyber objects described in the multimedia hieroglyph 32 have been completed. The hieroglyph presentation process of FIG. 34 can actually cause the dog toy 34 to walk in accordance with the contents of the multimedia hieroglyph 32 “the dog walks”.

そして、図31のステップS133の評価処理では図3の評価画面を用いて、ステップS132でサイバーオブジェクトの実行したアクションがユーザの予期したものであったか否かをユーザに確認できる。   Then, in the evaluation process of step S133 in FIG. 31, it is possible to confirm with the user whether or not the action executed by the cyber object in step S132 was what the user expected using the evaluation screen in FIG.

以上、ステップS133の評価処理ではユーザに明快な成功又は失敗のフィードバックを提供できる。この評価処理があることで、ユーザの近くにいる者(例えば、先生や両親など)もスクリーンペット33に合わせて「どうだった?」と尋ねるなど、学習に参加することができ、より高い学習効果が期待できる。   As described above, the evaluation process in step S133 can provide clear feedback of success or failure to the user. With this evaluation process, people who are close to the user (for example, teachers and parents) can participate in learning, such as asking "How was it?" The effect can be expected.

実施例2によれば、仮想世界と実世界とを関連付けてユーザに学習させることができるので、学習効果を向上させることが可能である。   According to the second embodiment, the user can learn by associating the virtual world with the real world, so that the learning effect can be improved.

データおよびインターフェースを提示するシステムの一例の概要図である。1 is a schematic diagram of an example system that presents data and interfaces. FIG. 本発明のインターフェース提示方法により実現されるインターフェースの一実施例のイメージ図である。It is a conceptual diagram of one embodiment of an interface that is implemented by the interface presentation method of the present invention. 本発明のインターフェース提示方法により実現されるインターフェースの具体的なイメージ図である。It is a specific image diagram of interfaces implemented by the interface presentation method of the present invention. オペレーションモードに切り替えられたフレームの一例のイメージ図である。It is an image figure of an example of the frame switched to the operation mode. 説明モードに切り替えられたフレームの一例のイメージ図である。It is an image figure of an example of the frame switched to description mode. コントロールモード時のサイバーフィルムの制御を表したイメージ図である。It is an image figure showing control of the cyber film at the time of control mode. サイバーフィルムの概念を説明するためのイメージ図である。It is an image figure for demonstrating the concept of a cyber film. 入出力装置に含まれるモニタを利用したインターフェースの一例のイメージ図である。It is an image figure of an example of the interface using the monitor contained in an input / output device. フィルムテーブルの一例の構成図である。It is a block diagram of an example of a film table. シーンテーブルの一例の構成図である。It is a block diagram of an example of a scene table. フレームテーブルの一例の構成図である。It is a block diagram of an example of a frame table. サイバーフィルムの適応処理の一例について説明するための図である。It is a figure for demonstrating an example of the adaptation process of a cyber film. 入出力装置に応じてフレームに表示させるサイバーオブジェクトの配置を変化させたフレームの一例のイメージ図である。It is an image figure of an example of the frame which changed arrangement | positioning of the cyber object displayed on a flame | frame according to an input / output device. 本発明によるインターフェース提示システムの一実施例のシステム構成図である。It is a system configuration | structure figure of one Example of the interface presentation system by this invention. クライアントの一実施例のハードウェア構成図である。It is a hardware block diagram of one Example of a client. クライアントの一実施例の機能構成図である。It is a function block diagram of one Example of a client. 本発明によるCIFを用いるクライアントの処理の一例のフローチャートである。It is a flowchart of an example of the process of the client using CIF by this invention. ユーザ環境モデルの一例の構成図である。It is a block diagram of an example of a user environment model. CIFの適応処理の一例のフローチャートである。It is a flowchart of an example of an adaptive process of CIF. FCSで利用するユーザ環境モデルの一例の構成図である。It is a block diagram of an example of the user environment model utilized by FCS. ユーザ環境モデルのデータ項目とCIFの適応処理との関連を表したテーブルである。It is the table showing the relationship between the data item of a user environment model, and the adaptive process of CIF. ユーザ環境モデルの具体例を表した構成図である。It is a block diagram showing the specific example of the user environment model. フィルムテーブルの具体例を表した構成図である。It is a block diagram showing the specific example of the film table. シーンテーブルの具体例を表した構成図である。It is a block diagram showing the specific example of the scene table. フレームの具体例を表したイメージ図である。It is an image figure showing the example of the frame. データ項目「使用入出力装置」がワンボタンスイッチのときのサイバーオブジェクトの配置を表したフレームの一例のイメージ図である。It is an image figure of an example of the frame showing arrangement | positioning of the cyber object when the data item "use input / output device" is a one button switch. ワンボタンスイッチの一例のイメージ図である。It is an image figure of an example of a one button switch. マルチメディア単語を配置したマルチメディアヒエログリフの一例のイメージ図である。It is an image figure of an example of the multimedia hieroglyph which has arranged the multimedia word. クライアントの一実施例の機能構成図である。It is a function block diagram of one Example of a client. マルチメディアヒエログリフを用いた学習方法を実現するクライアントの処理の一例のフローチャートである。It is a flowchart of an example of a process of the client which implement | achieves the learning method using a multimedia hieroglyph. マルチメディアヒエログリフを用いた学習方法の一実施例のフローチャートである。It is a flowchart of one Example of the learning method using a multimedia hieroglyph. サイバーオブジェクトとマルチメディア単語とを関連付けた単語リストテーブルの一例の構成図である。It is a block diagram of an example of the word list table which linked | related the cyber object and the multimedia word. ヒエログリフ作成処理の一例のフローチャートである。It is a flowchart of an example of a hieroglyph creation process. ヒエログリフ提示処理の一例のフローチャートである。It is a flowchart of an example of a hieroglyph presentation process. 動作命令変換関数テーブルの一例の構成図である。It is a block diagram of an example of an operation command conversion function table. 動作命令対応テーブルの一例の構成図である。It is a block diagram of an example of an operation command corresponding | compatible table.

符号の説明Explanation of symbols

1 特異情報DB
2 データ提示機能ブロック
3 インターフェース提示機能ブロック
4 データ群DB
5 データフィルタリング装置
6 データ編成装置
7,12 コンピュータ
8 人間又は機械
9 インターフェース群DB
10 インターフェースフィルタリング装置
11 インターフェース編成装置
13 入出力装置
14 ユーザ
60 ビュー
61,62 マルチビュー
63 フレーム
64 サイバーフィルム
100 インターフェース提示システム
101 クライアント
102 フィルムデータベースサーバ(フィルムDBサーバ)
103 認証サーバ
104 コンテンツサーバ
105 ユーザ環境モデルデータベース(ユーザ環境モデルDB)
108 ネットワーク
111 入力装置
112 出力装置
113 ドライブ装置
114 記録媒体
115 補助記憶装置
116 メモリ装置
117 演算処理装置
118 ネットワーク接続装置
131 通信制御部
132 CIF処理部
134 コンピュータ
135 入出力装置
351 CCF処理部
352 フレーム処理部
353 マルチメディアヒエログリフ処理部
354 マルチメディアヒエログリフ提示部
B バス
1 Specific information DB
2 Data presentation function block 3 Interface presentation function block 4 Data group DB
5 Data filtering device 6 Data organization device 7,12 Computer 8 Human or machine 9 Interface group DB
DESCRIPTION OF SYMBOLS 10 Interface filtering apparatus 11 Interface organization apparatus 13 Input / output apparatus 14 User 60 View 61,62 Multi view 63 Frame 64 Cyber film 100 Interface presentation system 101 Client 102 Film database server (film DB server)
103 Authentication Server 104 Content Server 105 User Environment Model Database (User Environment Model DB)
108 Network 111 Input Device 112 Output Device 113 Drive Device 114 Recording Medium 115 Auxiliary Storage Device 116 Memory Device 117 Arithmetic Processing Device 118 Network Connection Device 131 Communication Control Unit 132 CIF Processing Unit 134 Computer 135 Input / Output Device 351 CCF Processing Unit 352 Frame Processing Part 353 Multimedia Hieroglyph Processing Part 354 Multimedia Hieroglyph Presentation Part B Bus

Claims (9)

仮想世界および実世界のオブジェクトおよびプロセスの一つ以上の特徴を表すデータ群からユーザに適応したデータを操作または閲覧させるインターフェースを、ユーザが操作または閲覧するコンピュータに提示させるインターフェース提示方法であって、
前記コンピュータが、
前記ユーザに関するプロファイル情報,動作情報,場所情報,時間情報,理由情報および手段・方法情報の少なくとも一つから成る特異情報が格納された第1格納手段から、前記特異情報を呼び出す第1ステップと、
前記インターフェースを表すフレームと、前記フレームを意味および機能の少なくとも一つでグループ化したシーンと、前記シーンをまとめたフィルムとを有する、前記インターフェースの集合であるインターフェース群が格納された第2格納手段から、前記特異情報に基づき、前記ユーザに適した前記フィルム、前記シーンおよび前記フレームを選択する第2ステップと、
前記第2ステップで選択した前記フレームに対し、前記特異情報に基づき、一度に提示する前記オブジェクトおよびプロセスの数、配置、提示順序、および提示時間の少なくとも一つを定める前記ユーザに対する適応処理を行う第3ステップと、
前記第3ステップで適応処理の結果に従い、前記第2ステップで選択した前記フレームを前記ユーザから入力される入力情報に係わらず提示するか、または、前記入力情報に応じ、前記フレームを変化させて提示する第4ステップと
実行すること
を特徴とするインターフェース提示方法。
An interface presentation method for presenting an interface that allows a user to operate or browse data adapted to a user from a group of data representing one or more characteristics of virtual and real world objects and processes, comprising:
The computer is
A first step of calling the singular information from first storage means storing singular information comprising at least one of profile information, operation information, location information, time information, reason information and means / method information relating to the user;
Second storage means storing an interface group, which is a set of the interfaces, including a frame representing the interface, a scene in which the frame is grouped by at least one of meaning and function, and a film in which the scenes are collected. A second step of selecting the film, the scene and the frame suitable for the user based on the specific information;
An adaptive process for the user that determines at least one of the number of objects and processes to be presented at one time, the arrangement, the presentation order, and the presentation time for the frame selected in the second step based on the specific information. A third step to perform;
According to the result of the adaptive process in the third step, the frame selected in the second step is presented regardless of the input information input from the user, or the frame is changed according to the input information. fourth interface presentation method and executes and presenting Te.
前記データは、
五感による知覚情報と、
内部構造や素材に関する情報と、
外部構造もしくはその一部に関する情報と、
使用方法や動作・作用の様子,制御,履歴に関する情報と、
意味的、空間的、時間的に関連の強い仮想世界および実世界のオブジェクトやプロセスに関する情報と、
意味的、空間的、時間的に反対の意味を持つ仮想世界および実世界のオブジェクトやプロセスに関する情報と、
文化や言語に依存した説明情報と
のうちの少なくとも一つの情報から成ること
を特徴とする請求項1記載のインターフェース提示方法。
The data is
Perception information by the five senses,
Information about internal structures and materials,
Information about the external structure or part of it, and
Information on usage, behavior / action, control, history,
Information about virtual and real world objects and processes that are closely related to semantic, spatial and temporal,
Information about virtual and real world objects and processes with opposite semantic, spatial and temporal meanings;
2. The interface presenting method according to claim 1, comprising at least one piece of explanation information depending on culture and language.
前記コンピュータが、前記手段・方法情報に指定した入出力装置、センサー、およびネットワークの少なくとも一つから取得する情報に基づき、前記特異情報を随時更新することを特徴とする請求項1記載のインターフェース提示方法。   2. The interface presentation according to claim 1, wherein the computer updates the specific information as needed based on information acquired from at least one of an input / output device, a sensor, and a network specified in the means / method information. Method. 前記コンピュータが、ユーザの操作履歴、システム状態およびセンサーからの情報に応じて、前記特異情報を随時更新することを特徴とする請求項1記載のインターフェース提示方法。   2. The interface presenting method according to claim 1, wherein the computer updates the specific information as needed according to a user operation history, a system state, and information from a sensor. 前記インターフェースは、前記コンピュータが使用可能な入出力装置に基づき、前記データ群が格納された第3格納手段から前記入出力装置に対応したデータを選択し、そのデータを用いて前記入出力装置を制御し、前記コンピュータと前記ユーザとの間で情報のやり取りを行わせることを特徴とする請求項1記載のインターフェース提示方法。   The interface selects data corresponding to the input / output device from the third storage means in which the data group is stored based on the input / output device usable by the computer, and uses the data to select the input / output device. 2. The interface presenting method according to claim 1, wherein control is performed to exchange information between the computer and the user. 前記インターフェースを構成する仮想世界および実世界のオブジェクトは、前記インターフェース群における分類情報を持ち、検索可能であることを特徴とする請求項1記載のインターフェース提示方法。   2. The interface presenting method according to claim 1, wherein the virtual world and real world objects constituting the interface have classification information in the interface group and are searchable. 記仮想世界および実世界のオブジェクトは、その特徴を表す第3格納手段に格納されている前記データ群へのポインタを持ち、前記ユーザからの要求に応じて、前記ユーザに適応を行ったデータによる説明を提供することを特徴とする請求項1記載のインターフェース提示方法。 Before Kikari virtual world and the real world object has a pointer to the data groups stored in the third storing means for representing the feature, in response to a request from the user, was adapted to the user The interface presentation method according to claim 1, wherein an explanation by data is provided. 前記インターフェースは、前記ユーザの意志を主語、述語、場所、時間、理由・条件・目標、手段・方法の少なくとも一つの観点で表現させ、前記観点で表現されたユーザの意志に応じて前記コンピュータを介して前記人間または機械との間で情報のやり取りを行わせることを特徴とする請求項1記載のインターフェース提示方法。   The interface expresses the user's will from at least one of the subject, predicate, place, time, reason / condition / target, means / method, and the computer is represented according to the user's will expressed from the viewpoint. The interface presenting method according to claim 1, further comprising: exchanging information with the person or machine via the interface. 請求項1乃至8何れか一項記載のインターフェース提示方法を実行することを特徴とするインターフェース提示システム。   9. An interface presentation system that executes the interface presentation method according to claim 1.
JP2004086903A 2004-03-24 2004-03-24 Interface presenting method and interface presenting system Expired - Fee Related JP4546125B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004086903A JP4546125B2 (en) 2004-03-24 2004-03-24 Interface presenting method and interface presenting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004086903A JP4546125B2 (en) 2004-03-24 2004-03-24 Interface presenting method and interface presenting system

Publications (2)

Publication Number Publication Date
JP2005275710A JP2005275710A (en) 2005-10-06
JP4546125B2 true JP4546125B2 (en) 2010-09-15

Family

ID=35175337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004086903A Expired - Fee Related JP4546125B2 (en) 2004-03-24 2004-03-24 Interface presenting method and interface presenting system

Country Status (1)

Country Link
JP (1) JP4546125B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2929732B1 (en) * 2008-04-02 2010-12-17 Alcatel Lucent DEVICE AND METHOD FOR MANAGING ACCESSIBILITY TO REAL OR VIRTUAL OBJECTS IN DIFFERENT PLACES.
JP6979539B2 (en) * 2018-11-06 2021-12-15 株式会社ソニー・インタラクティブエンタテインメント Information processing system, display method and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001027944A (en) * 1999-07-14 2001-01-30 Fujitsu Ltd Device having menu interface and program recording medium
JP2001117688A (en) * 1999-10-22 2001-04-27 Sharp Corp Help function control system
JP2002366969A (en) * 2001-06-07 2002-12-20 Sharp Corp Device, method and program for presenting information, and computer readable recording medium with information presenting program recorded thereon
JP2003022154A (en) * 2001-07-09 2003-01-24 Fuji Photo Film Co Ltd User interface device and its control method
JP2003084876A (en) * 2001-09-13 2003-03-19 F Com:Kk Communication method using multimedia word, multimedia message forming method, multimedia message browsing method, program for transmitting/receiving multimedia message and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5917630A (en) * 1982-07-22 1984-01-28 Fanuc Ltd Input method of data
JPH0588832A (en) * 1991-09-27 1993-04-09 Fuji Electric Co Ltd Operation guide screen displaying method
JPH05100815A (en) * 1991-10-08 1993-04-23 Oki Electric Ind Co Ltd Electronic information display system
JPH0683554A (en) * 1992-09-03 1994-03-25 Matsushita Electric Ind Co Ltd Operation guide device
JP2603428B2 (en) * 1992-11-06 1997-04-23 インターナショナル・ビジネス・マシーンズ・コーポレイション How to display a popup menu
JPH06161628A (en) * 1992-11-19 1994-06-10 Omron Corp Command selection input device
JPH07182128A (en) * 1993-12-24 1995-07-21 Mitsubishi Electric Corp User interface system
JP3293763B2 (en) * 1997-10-09 2002-06-17 株式会社シーエスケイ Emoji communication device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001027944A (en) * 1999-07-14 2001-01-30 Fujitsu Ltd Device having menu interface and program recording medium
JP2001117688A (en) * 1999-10-22 2001-04-27 Sharp Corp Help function control system
JP2002366969A (en) * 2001-06-07 2002-12-20 Sharp Corp Device, method and program for presenting information, and computer readable recording medium with information presenting program recorded thereon
JP2003022154A (en) * 2001-07-09 2003-01-24 Fuji Photo Film Co Ltd User interface device and its control method
JP2003084876A (en) * 2001-09-13 2003-03-19 F Com:Kk Communication method using multimedia word, multimedia message forming method, multimedia message browsing method, program for transmitting/receiving multimedia message and storage medium

Also Published As

Publication number Publication date
JP2005275710A (en) 2005-10-06

Similar Documents

Publication Publication Date Title
US20220319517A1 (en) Electronic personal interactive device
CN110019752A (en) Multi-direction dialogue
KR102306624B1 (en) Persistent companion device configuration and deployment platform
Paulos et al. PRoP: Personal roving presence
CN110140138A (en) The determination of the content-data of local device, transimission and storage
CN101751467A (en) Context and activity-driven content delivery and interaction
US20230146384A1 (en) Initiating sensory prompts indicative of changes outside a field of view
CN108885608A (en) Intelligent automation assistant in home environment
CN107491929A (en) The natural language event detection of data-driven and classification
CN107480766B (en) Method and system for content generation for multi-modal virtual robots
JP2015018563A (en) Communication method, system, and products
WO2008005149A2 (en) Information collection in multi-participant online communities
CN109257941A (en) The synchronization of digital assistants and task delegation
JP2003216650A (en) Graphical user interface for information intermediation system
EP3384693B1 (en) Immersive telepresence
CN111565143B (en) Instant messaging method, equipment and computer readable storage medium
US10803058B2 (en) Information processing device, method of processing information, and method of providing information
CN107490971A (en) Intelligent automation assistant in home environment
WO2020255767A1 (en) Information processing system, information processing method, and recording medium
US20230108256A1 (en) Conversational artificial intelligence system in a virtual reality space
CN115494941A (en) Meta-universe emotion accompanying virtual human realization method and system based on neural network
Ma et al. Using social media platforms for human-robot interaction in domestic environment
JP4546125B2 (en) Interface presenting method and interface presenting system
CN111949773A (en) Reading equipment, server and data processing method
JP7371770B2 (en) Avatar control program, avatar control method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070320

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20071002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100701

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees