JP2019028945A - Program and method for controlling information processing apparatus - Google Patents

Program and method for controlling information processing apparatus Download PDF

Info

Publication number
JP2019028945A
JP2019028945A JP2017151020A JP2017151020A JP2019028945A JP 2019028945 A JP2019028945 A JP 2019028945A JP 2017151020 A JP2017151020 A JP 2017151020A JP 2017151020 A JP2017151020 A JP 2017151020A JP 2019028945 A JP2019028945 A JP 2019028945A
Authority
JP
Japan
Prior art keywords
icon
explanation
user
description
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017151020A
Other languages
Japanese (ja)
Other versions
JP6912043B2 (en
Inventor
勢津子 近藤
Setsuko Kondou
勢津子 近藤
静美 大畑
Shizumi Ohata
静美 大畑
浩孝 津田
Hirotaka Tsuda
浩孝 津田
恵梨子 吉田
Eriko Yoshida
恵梨子 吉田
謙一郎 村松
Kenichiro Muramatsu
謙一郎 村松
祐介 岡村
Yusuke Okamura
祐介 岡村
善一郎 安田
Zenichiro Yasuda
善一郎 安田
良之 谷津田
Yoshiyuki Yatsuda
良之 谷津田
哲 宮沢
Satoru Miyazawa
哲 宮沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2017151020A priority Critical patent/JP6912043B2/en
Publication of JP2019028945A publication Critical patent/JP2019028945A/en
Application granted granted Critical
Publication of JP6912043B2 publication Critical patent/JP6912043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To explain about icons depending on a user's level of understanding.SOLUTION: An information processing apparatus 100 comprises: a display 14 that can display a plurality of icons; a processor 11 that can execute a plurality of applications; an operation device 15 for a user to input an instruction; and an audio device 18 that emits sound. The processor 11 includes a control unit 32 that displays, on a display 14, explanation of one icon of the plurality of icons by text, and after the lapse of a predetermined time, executes the explanation of one icon by voice by using the audio device 18 or executes the explanation of one icon with moving images using the display 14.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置におけるアイコンの説明に関する。   The present invention relates to an explanation of icons in an information processing apparatus.

携帯電話機またはスマートフォン等の各種の情報処理装置では、一般に、アプリケーションを起動させるためのアイコンをホーム画面に表示する。利用者は、アイコンを用いて、対応するアプリケーション(以下、アプリと称する)を起動することができる。ところで、操作に不慣れな利用者は、アイコンに対応するアプリの用途や機能が分からないことがある。特に高齢者にとって、複数のアプリがインストールされている多機能の情報処理装置を使いこなすのは容易ではない。
特許文献1には、操作に不慣れな利用者に対して、音声によるアイコンの機能の説明と文字によるアイコンの機能の説明とが開示されている。
In various information processing apparatuses such as a mobile phone or a smartphone, an icon for starting an application is generally displayed on a home screen. The user can start a corresponding application (hereinafter referred to as an application) using the icon. By the way, a user who is unfamiliar with the operation may not know the application or function of the application corresponding to the icon. Especially for elderly people, it is not easy to master a multifunctional information processing apparatus in which a plurality of applications are installed.
Japanese Patent Application Laid-Open No. 2004-151561 discloses a description of icon functions by voice and an explanation of icon functions by characters for users who are unfamiliar with the operation.

特開2013−37706号公報JP 2013-37706 A

ところで、高齢者であっても、繰り返し使用するアプリについては、その機能を理解することが可能である。一方、使用したことがないアプリについては、何ができるかを高齢者が予想できないことが多い。さらに、数回使用したことがあるアプリについては、少しの説明で、アプリの機能を高齢者が思い出すことができる場合がある。このように、アイコンごとに、その機能の理解の程度は、大きく相違する。
しかしながら、従来の情報処理装置においては、文字または音声を用いてアイコンを説明することができても、説明の内容は状況に応じて変化するものではなかった。このため、利用者がアプリの機能を十分理解しているアイコンの説明と利用者が機能をよく理解できていないアイコンの説明が同じであるといった問題があった。
本発明は上述した事情に鑑みてなされたものであり、利用者の理解の程度に応じてアイコンの説明を実行することを解決課題の一つとする。
By the way, even an elderly person can understand the function of an application that is used repeatedly. On the other hand, elderly people often cannot predict what they can do with apps they have never used. Furthermore, with regard to apps that have been used several times, with a little explanation, elderly people may be able to remember the functionality of the app. As described above, the degree of understanding of the function is greatly different for each icon.
However, in the conventional information processing apparatus, even if the icon can be described using characters or voice, the content of the description does not change depending on the situation. For this reason, there is a problem that the explanation of the icon that the user fully understands the function of the application is the same as the explanation of the icon that the user does not understand the function well.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to execute explanation of icons according to the degree of understanding of the user.

以上の課題を解決するために、本発明の好適な態様に係るプログラムは、複数のアイコンを表示可能な表示装置、利用者が指示を入力するための操作装置、および音を放音するオーディオ装置を備え、複数のアプリケーションを実行可能な情報処理装置のプロセッサを、前記複数のアイコンのうち一つのアイコンの説明をテキストで前記表示装置に表示させてから所定時間が経過すると、前記オーディオ装置を用いて音声で前記一つのアイコンの説明を実行させるか、または前記表示装置を用いた動画で前記一つのアイコンの説明を実行させる制御部として、機能させる。   In order to solve the above problems, a program according to a preferred aspect of the present invention includes a display device capable of displaying a plurality of icons, an operation device for a user to input an instruction, and an audio device that emits sound. A processor of an information processing apparatus capable of executing a plurality of applications, when a predetermined time elapses after a description of one icon of the plurality of icons is displayed as text on the display device, the audio device is used. Then, the description of the one icon is executed by voice or the control unit is caused to function as a control unit that executes the description of the one icon by a moving image using the display device.

本発明の好適な態様に係る情報処理装置の制御方法は、複数のアイコンを表示可能な表示装置、利用者が指示を入力するための操作装置、および音を放音するオーディオ装置を備え、複数のアプリケーションを実行可能な情報処理装置の制御方法であって、前記複数のアイコンのうち一つのアイコンの説明をテキストで前記表示装置に表示させてから所定時間が経過したことを検知し、前記オーディオ装置を用いて音声で前記一つのアイコンの説明を実行させるか、または前記表示装置に動画で前記一つのアイコンの説明を実行させる。   An information processing apparatus control method according to a preferred aspect of the present invention includes a display device capable of displaying a plurality of icons, an operation device for a user to input an instruction, and an audio device that emits sound. A method of controlling an information processing apparatus capable of executing the application, wherein the audio is detected when a predetermined time has elapsed since a description of one of the plurality of icons is displayed on the display device as text. The explanation of the one icon is executed by voice using the device, or the explanation of the one icon is executed by the moving image on the display device.

本発明によれば、利用者の理解の程度に応じてアイコンの説明を実行できる。   According to the present invention, explanation of icons can be executed according to the degree of understanding of the user.

本発明の第1実施形態に係る情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which concerns on 1st Embodiment of this invention. 第1実施形態に係る情報処理装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the information processing apparatus which concerns on 1st Embodiment. 使用履歴テーブルの内容の一例を示す説明図である。It is explanatory drawing which shows an example of the content of a usage history table. 操作履歴テーブルの内容の一例を示す説明図である。It is explanatory drawing which shows an example of the content of the operation history table. ホーム画面の一例を示す説明図である。It is explanatory drawing which shows an example of a home screen. アイコンの説明処理の内容を示すフローチャートである。It is a flowchart which shows the content of the description process of an icon. 説明テーブルの内容の一例を示す説明図である。It is explanatory drawing which shows an example of the content of an explanatory table. アイコンが表示されたホーム画面の一例を示す説明図である。It is explanatory drawing which shows an example of the home screen on which the icon was displayed. アイコンとテキストの説明が表示されホーム画面の一例を示す説明図である。It is explanatory drawing which shows an example of a home screen by which the description of an icon and a text is displayed. 第1回音声の説明後に第2回音声の説明に進む過程におおけるホーム画面の一例を示す説明図である。It is explanatory drawing which shows an example of a home screen in the process which progresses to description of the 2nd audio | voice after description of the 1st audio | voice. 2個のアイコンが表示されたホーム画面の一例を示す説明図である。It is explanatory drawing which shows an example of the home screen on which two icons were displayed. 2個のアイコンと2個目のアイコンに対するテキストの説明が表示されホーム画面の一例を示す説明図である。It is explanatory drawing which shows the description of the text with respect to two icons and the 2nd icon, and shows an example of a home screen. 割り込み処理の内容を示すフローチャートである。It is a flowchart which shows the content of the interruption process. 第2実施形態に用いる説明テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the explanatory table used for 2nd Embodiment. 第2実施形態における音データの選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the selection process of the sound data in 2nd Embodiment. 第3実施形態における音声によるアイコンの説明の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the description of the icon by the sound in 3rd Embodiment. 第3実施形態に係る計数値と説明速度の関係の一例を示す説明図である。It is explanatory drawing which shows an example of the relationship between the count value and explanatory speed concerning 3rd Embodiment. 第4実施形態に係る音データの選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the selection process of the sound data which concerns on 4th Embodiment. 第5実施形態に係る音声によるアイコンの説明の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the description of the icon by the sound which concerns on 5th Embodiment. 第5実施形態に係る算出した時間と速度の関係の一例を示す説明図である。It is explanatory drawing which shows an example of the relationship between the calculated time and speed which concerns on 5th Embodiment. 第6実施形態に係る音データの選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the selection process of the sound data which concerns on 6th Embodiment. 第7実施形態に係る音声によるアイコンの説明の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the description of the icon by the sound which concerns on 7th Embodiment. 第7実施形態に係る操作回数と速度の関係の一例を示す説明図である。It is explanatory drawing which shows an example of the relationship between the frequency | count of operation and speed which concerns on 7th Embodiment.

<1.第1実施形態>
図1は、本発明の第1実施形態に係る情報処理装置100のハードウェア構成を例示するブロック図である。情報処理装置100は、例えば携帯電話機、スマートフォンまたはタブレット端末等の可搬型の情報処理装置である。図1に例示される通り、情報処理装置100は、処理装置11、記憶装置12、通信装置13、表示装置14、操作装置15、GPS装置16、計時装置17およびオーディオ装置18を具備するコンピュータシステムにより実現される。情報処理装置100の各要素は、単体または複数のバスで相互に接続される。なお、本願における「装置」という用語は、回路、デバイスまたはユニット等の他の用語に読替えてもよい。また、情報処理装置100の各要素は、単数または複数の機器で構成され、情報処理装置100の一部の要素を省略してもよい。
<1. First Embodiment>
FIG. 1 is a block diagram illustrating a hardware configuration of the information processing apparatus 100 according to the first embodiment of the present invention. The information processing apparatus 100 is a portable information processing apparatus such as a mobile phone, a smartphone, or a tablet terminal. As illustrated in FIG. 1, the information processing apparatus 100 includes a processing device 11, a storage device 12, a communication device 13, a display device 14, an operation device 15, a GPS device 16, a timing device 17, and an audio device 18. It is realized by. Each element of the information processing apparatus 100 is connected to each other by a single bus or a plurality of buses. Note that the term “apparatus” in the present application may be replaced with other terms such as a circuit, a device, or a unit. In addition, each element of the information processing apparatus 100 may be configured by a single device or a plurality of devices, and some elements of the information processing apparatus 100 may be omitted.

処理装置11は、情報処理装置100の全体を制御するプロセッサであり、例えば単数または複数のチップで構成される。処理装置11は、例えば、周辺装置とのインターフェース、演算装置およびレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置11の機能の一部または全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアで実現してもよい。処理装置11は、各種の処理を並列的または逐次的に実行する。   The processing device 11 is a processor that controls the entire information processing device 100, and includes, for example, a single chip or a plurality of chips. The processing device 11 includes, for example, a central processing unit (CPU) including an interface with peripheral devices, an arithmetic device, a register, and the like. Note that some or all of the functions of the processing device 11 are realized by hardware such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). May be. The processing device 11 executes various processes in parallel or sequentially.

記憶装置12は、処理装置11が読取可能な記録媒体であり、処理装置11が実行する複数のプログラム、処理装置11が使用する各種のデータ、および使用履歴テーブルTBLa、操作履歴テーブルTBLb、および説明テーブルTBLcを記憶する。記憶装置12は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の記憶回路の1種類以上で構成される。使用履歴テーブルTBLaの詳細は後述するが、そこには、アプリケーションプログラム(以下、「アプリ」と称する。)の使用履歴が記憶される。また、操作履歴テーブルTBLbには、操作日時、操作ボタン、および関連するアイコンが対応付けられて記憶される。   The storage device 12 is a recording medium readable by the processing device 11, and includes a plurality of programs executed by the processing device 11, various data used by the processing device 11, a use history table TBLa, an operation history table TBLb, and an explanation. Store table TBLc. The storage device 12 includes, for example, one or more types of storage circuits such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). Although details of the usage history table TBLa will be described later, a usage history of an application program (hereinafter referred to as “application”) is stored therein. Further, the operation history table TBLb stores the operation date and time, operation buttons, and related icons in association with each other.

また、後述するように、本実施形態においては、アイコンの機能を、テキストおよび音声で説明する。説明テーブルTBLcは、アイコンの識別情報、説明に用いるテキストデータ、および説明に用いる音データを対応付けて記憶する。   Further, as will be described later, in the present embodiment, the function of the icon will be described with text and voice. The explanation table TBLc stores icon identification information, text data used for explanation, and sound data used for explanation in association with each other.

通信装置13は、移動体通信網またはインターネット等の通信網を介して他の装置と通信する機器である。通信装置13は、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカードまたは通信モジュールとも表記される。例えば、配信サーバ(図示略)から通信網を介して通信装置13が受信したアプリが記憶装置12に記憶される。   The communication device 13 is a device that communicates with another device via a communication network such as a mobile communication network or the Internet. The communication device 13 is also expressed as, for example, a network device, a network controller, a network card, or a communication module. For example, an application received by the communication device 13 from a distribution server (not shown) via a communication network is stored in the storage device 12.

表示装置14は、処理装置11による制御のもとで各種の画像を表示する。例えば液晶表示パネル、有機EL表示パネル等の各種の表示パネルが表示装置14として好適に利用される。   The display device 14 displays various images under the control of the processing device 11. For example, various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display device 14.

操作装置15は、利用者の指示を入力するための機器である。操作装置15は、利用者による操作を受付ける。具体的には、操作装置15は、数字および文字等の符号を入力するための操作と、表示装置14が表示するアイコンを選択するための操作とを受付ける。例えば、表示装置14の表示面に対する接触を検出するタッチパネルが操作装置15として好適である。なお、利用者が操作可能な複数の操作子を操作装置15が含んでもよい。   The operating device 15 is a device for inputting user instructions. The operation device 15 receives an operation by a user. Specifically, the operation device 15 accepts an operation for inputting codes such as numbers and letters and an operation for selecting an icon displayed on the display device 14. For example, a touch panel that detects contact with the display surface of the display device 14 is suitable as the operation device 15. The operation device 15 may include a plurality of operators that can be operated by the user.

GPS装置16は複数の衛星からの電波を受信し、受信した電波から位置情報を生成する。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。位置情報は、例えば、情報処理装置100の緯度と経度とを示す。この例では、位置情報はGPS装置16から得られることを例示するが、情報処理装置100は、どのような方法で位置情報を取得してもよい。例えば、情報処理装置100の通信先となる基地局に割り当てられたセルIDを用いて位置情報を取得してもよい。さらに、情報処理装置100が無線LANのアクセスポイントと通信する場合には、アクセスポイントに割り当てられたネットワーク上の識別アドレス(MACアドレス)と実際の住所(位置)とを対応付けたデータベースを参照して位置情報を取得してもよい。   The GPS device 16 receives radio waves from a plurality of satellites and generates position information from the received radio waves. The position information may be in any format as long as the position can be specified. The position information indicates, for example, the latitude and longitude of the information processing apparatus 100. In this example, it is exemplified that the position information is obtained from the GPS device 16, but the information processing apparatus 100 may acquire the position information by any method. For example, the position information may be acquired using a cell ID assigned to a base station that is a communication destination of the information processing apparatus 100. Further, when the information processing apparatus 100 communicates with a wireless LAN access point, a database in which an identification address (MAC address) on the network assigned to the access point is associated with an actual address (position) is referred to. Position information may be acquired.

計時装置17は、現在の日時を示す日時情報を生成する。具体的には、水晶発振器などで生成されるクロック信号を分周して得たパルス信号をカウントすることによって、日時情報を生成する。なお、日時情報は、時刻情報と年月日情報とからなる。時刻情報は、時刻を示す。時刻とは、1日の中の時の意味である。例えば、11時10分30秒であり、年月日を含まない。計時装置17は、日時情報を生成するが、そのうち、時刻情報のみを使用する場合がある。
オーディオ装置18は、DA変換器、アンプ、およびスピーカーを備える。オーディオ装置18では、音データをDA変換器でアナロブ信号し、アナロブ信号をアンプで増幅し、増幅されたアナログ信号をスピーカーに供給し、スピーカーから放音する。
The timing device 17 generates date / time information indicating the current date / time. Specifically, date information is generated by counting pulse signals obtained by dividing a clock signal generated by a crystal oscillator or the like. The date / time information includes time information and date information. The time information indicates time. Time means the time of day. For example, it is 11:10:30, and does not include the date. The timing device 17 generates date / time information, but only time information may be used.
The audio device 18 includes a DA converter, an amplifier, and a speaker. In the audio device 18, the sound data is subjected to an analog signal by a DA converter, the analog signal is amplified by an amplifier, the amplified analog signal is supplied to the speaker, and the sound is emitted from the speaker.

図2は、情報処理装置100の機能に着目したブロック図である。記憶装置12に記憶されたプログラムを処理装置11が実行することで、図2に例示する複数の機能(履歴管理部31、制御部32)が実現される。   FIG. 2 is a block diagram that focuses on the functions of the information processing apparatus 100. A plurality of functions (history management unit 31 and control unit 32) illustrated in FIG. 2 are realized by the processing device 11 executing the program stored in the storage device 12.

履歴管理部31は、使用したアプリの使用履歴および操作履歴を管理する。具体的には、履歴管理部31は、使用した日時、使用したアプリ名、動作内容、および使用した場所を対応付けて使用履歴テーブルTBLaに記憶する。また、履歴管理部31は、操作ボタン、操作日時、および関連するアイコンとを対応付けて操作履歴テーブルTBLbに記憶する。   The history management unit 31 manages the usage history and operation history of the used application. Specifically, the history management unit 31 stores the used date and time, the used application name, the operation content, and the used location in the usage history table TBLa in association with each other. Further, the history management unit 31 stores the operation button, the operation date and time, and the related icon in association with each other in the operation history table TBLb.

図3Aに、使用履歴テーブルTBLaの記憶内容の一例を示す。使用履歴テーブルTBLaは、複数の使用履歴を記憶している。1つの使用履歴は、使用した日時、使用したアプリ名、動作内容、および使用した場所の組からなる。同図に示す例では、使用履歴R1〜R5が使用履歴テーブルTBLaに記憶されている。例えば、使用履歴R5は、2017年6月25日に交通アプリを使用して、東京浜松間の経路を探索したことを示している。さらに、使用履歴R5は、交通アプリが、緯度35.704749度、経度139.759653度(東京都文京区本郷)で使用されたことを示している。
図3Bに操作履歴テーブルTBLbの一例を示す。この図に示すように、操作履歴テーブルTBLbには、複数の操作履歴が格納されている。一つの操作履歴は、操作日時、操作ボタン、および関連するアイコンの組からなる。操作履歴r3は、2017年7月10日14時24分にロック解除操作がなされたことを示している。
FIG. 3A shows an example of the stored contents of the usage history table TBLa. The usage history table TBLa stores a plurality of usage histories. One usage history includes a set of date and time used, application name used, operation content, and location used. In the example shown in the figure, usage histories R1 to R5 are stored in the usage history table TBLa. For example, the use history R5 indicates that a route between Tokyo Hamamatsu was searched using a traffic application on June 25, 2017. Further, the usage history R5 indicates that the traffic application was used at latitude 35.704749 degrees and longitude 139.759653 degrees (Hongo, Bunkyo-ku, Tokyo).
FIG. 3B shows an example of the operation history table TBLb. As shown in this figure, the operation history table TBLb stores a plurality of operation histories. One operation history includes a set of operation date and time, operation buttons, and related icons. The operation history r3 indicates that the unlocking operation was performed at 14:24 on July 10, 2017.

説明を図2に戻す。制御部32は、操作装置15から出力される操作信号に基づいて、表示装置14に各種画面を表示させると共に、制御部32はオーディオ装置18を制御して各種の音を出力させる。   Returning to FIG. The control unit 32 displays various screens on the display device 14 based on the operation signal output from the operation device 15, and the control unit 32 controls the audio device 18 to output various sounds.

本実施形態では、情報処理装置100を起動した後、利用者がロックを解除すると表示装置14にはホーム画面が表示される。ホーム画面には、情報処理装置100にインストールされている複数のアプリに対応して複数のアイコンが表示される。   In this embodiment, after the information processing apparatus 100 is activated, the home screen is displayed on the display device 14 when the user releases the lock. On the home screen, a plurality of icons are displayed corresponding to a plurality of applications installed in the information processing apparatus 100.

図4にホーム画面の一例を示す。この例のホーム画面には、地図アプリのアイコンX1、天気アプリのアイコンX2、交通アプリのアイコンX3、メールアプリのアイコンX4、ニュースアプリのアイコンX5、電話アプリのアイコンX6、カメラアプリのアイコンX7、およびアルバムアプリのアイコンX8が設けられている。
更に、ホーム画面には、一つ前の動作に戻すこと指定する第1ボタンB1と、一つ先の動作に進めることを指定する第2ボタンB2が設けられている。
FIG. 4 shows an example of the home screen. The home screen in this example includes a map application icon X1, a weather application icon X2, a transportation application icon X3, a mail application icon X4, a news application icon X5, a phone application icon X6, a camera application icon X7, And an album application icon X8.
Further, the home screen is provided with a first button B1 for designating returning to the previous operation and a second button B2 for designating proceeding to the next operation.

本実施形態において、ホーム画面には、アイコンX1〜X8が、アイコンX1→アイコンX2→…アイコンX8の順に表示される。また、アイコンX1〜X8の各々について、対応するアプリの説明がなされ、説明が終了すると次のアイコンが表示される。即ち、まず、複数のアイコンのうち一のアイコンがホーム画面に表示され、その説明がなされる。   In the present embodiment, icons X1 to X8 are displayed on the home screen in the order of icon X1 → icon X2 →... Icon X8. Further, for each of the icons X1 to X8, the corresponding application is explained, and when the explanation is finished, the next icon is displayed. That is, first, one of the plurality of icons is displayed on the home screen, and explanation thereof is made.

次に、本実施形態の動作について説明する。図5は、アイコンの説明処理の内容を示すフローチャートである。まず、処理装置11は、操作装置15から出力される操作信号に基づいて、利用者がロックを解除したことを検知すると、アイコンが無いホーム画面を表示装置14に表示させる(ステップSa0)。
次に、処理装置11は、一つのアイコンをホーム画面に追加する(ステップSa1)。例えば、図4に示す地図アプリのアイコンX1が追加されたとすると、ホーム画面は図7に示すものとなる。
Next, the operation of this embodiment will be described. FIG. 5 is a flowchart showing the contents of the icon explanation process. First, when detecting that the user has released the lock based on the operation signal output from the operation device 15, the processing device 11 displays a home screen without an icon on the display device 14 (step Sa <b> 0).
Next, the processing apparatus 11 adds one icon to the home screen (step Sa1). For example, if the map application icon X1 shown in FIG. 4 is added, the home screen is as shown in FIG.

次に、処理装置11は、アイコンの説明をテキストで表示装置14に表示させる(ステップSa2)。具体的には、処理装置11は、説明の対象となるアイコンのテキストデータを説明テーブルTBLcから読み出し、画像データに変換して表示装置14に出力する。
図6に、説明テーブルTBLcの一例を示す。この例では、アイコンX1のアイコン識別情報が「x001」、アイコンX2のアイコン識別情報が「x002」、アイコンX3のアイコン識別情報が「x003」である。
Next, the processing device 11 displays the description of the icon on the display device 14 as text (step Sa2). Specifically, the processing device 11 reads text data of an icon to be explained from the explanation table TBLc, converts it into image data, and outputs it to the display device 14.
FIG. 6 shows an example of the explanation table TBLc. In this example, the icon identification information of the icon X1 is “x001”, the icon identification information of the icon X2 is “x002”, and the icon identification information of the icon X3 is “x003”.

例えば、説明の対象となるアイコンが図7に示すアイコンX1である場合、テキストを用いた説明を追加したホーム画面は図8に示すものとなる。この場合、処理装置11は、テキストデータDt1を説明テーブルTBLcを読み出す。図8に示すように、アイコンX1の右横の表示欄A1には、「目的地までの経路や近くのお店の情報を調べることができます。」というテキストが表示される。このテキストはテキストデータDt1に基づくものである。高齢者は、アイコンX1の形状を見ても地図アプリの機能を想像することができない可能性があるが、テキストを表示することによって地図アプリの概要を高齢者に伝えることができる。   For example, when the icon to be explained is the icon X1 shown in FIG. 7, the home screen to which the explanation using the text is added is shown in FIG. In this case, the processor 11 reads the text data Dt1 from the explanation table TBLc. As shown in FIG. 8, in the display field A1 on the right side of the icon X1, the text “You can check the route to the destination and information on nearby shops.” Is displayed. This text is based on the text data Dt1. An elderly person may not be able to imagine the function of the map application even by looking at the shape of the icon X1, but the outline of the map application can be communicated to the elderly person by displaying text.

説明を図5に戻す。ステップSa2の処理が終了すると、処理装置11は、アイコンの説明をテキストで表示装置14に表示させてから所定時間が経過したか否かを判定する(ステップSa3)。所定時間を超えると、処理装置11は、音声を用いた第1回説明を実行する。具体的には、処理装置11は、説明テーブルTBLcから説明の対象となるアイコンに対応する音データを読み出して、オーディオ装置18に出力する。例えば、説明の対象となるアイコンが図8に示すアイコンX1である場合、処理装置11は、図6に示す音データDs11を読み出して、オーディオ装置18に出力する。   Returning to FIG. When the process of step Sa2 ends, the processing device 11 determines whether or not a predetermined time has elapsed since the description of the icon was displayed on the display device 14 as text (step Sa3). When the predetermined time is exceeded, the processing device 11 executes the first explanation using sound. Specifically, the processing device 11 reads out sound data corresponding to an icon to be explained from the explanation table TBLc and outputs it to the audio device 18. For example, when the icon to be described is the icon X1 shown in FIG. 8, the processing device 11 reads out the sound data Ds11 shown in FIG. 6 and outputs it to the audio device 18.

このように本実施形態では、テキストの説明を表示してから、所定時間が経過することが音声による第1回説明を実行する条件となっている。このため、利用者に対して段階的な説明を行うことができる。例えば、地図アプリを使用したことが無い利用者は、より詳細な説明を音声で聞くことができる。一方、地図アプリを使用したことが有り、使い方を知っている利用者は、第2ボタンB2を押下することで、音声による説明を省略して、次のアイコンの説明に進むことができる。この例では、テキストによる説明と音声の説明とを同時に実行しないので、所定時間中に利用者は音声による説明を受けるか否かを考えることができる。   As described above, in the present embodiment, the condition for executing the first explanation by voice is that a predetermined time elapses after the explanation of the text is displayed. For this reason, stepwise explanations can be given to the user. For example, a user who has never used a map application can hear a more detailed explanation by voice. On the other hand, a user who has used the map application and knows how to use can press the second button B2 to skip the explanation by voice and proceed to the explanation of the next icon. In this example, the text explanation and the voice explanation are not executed at the same time, so the user can consider whether or not the voice explanation is received during a predetermined time.

次に、処理装置11は、詳細な説明を必要とするかを確認する画像を表示装置14に表示させる(ステップSa5)。例えば、図9に示すように表示欄A1の下に位置する表示欄A2に「より詳しく説明しますか?」と表示して、利用者が第3ボタンB3または第4ボタンB4を操作するように促す。   Next, the processing device 11 causes the display device 14 to display an image for confirming whether detailed description is required (step Sa5). For example, as shown in FIG. 9, the display field A2 positioned below the display field A1 displays “Do you want to explain in more detail?” So that the user operates the third button B3 or the fourth button B4. Prompt.

次に、処理装置11は、利用者が更なる説明を選択したか否かを判定する(ステップSa6)。利用者が更なる説明を選択した場合、例えば、図9示す第3ボタンB3を利用者が押下した場合、処理装置11は、音声を用いたアイコンの第2回説明を実行する(ステップSa7)。具体的には、処理装置11は、説明テーブルTBLcから説明の対象となるアイコンに対応する音データを読み出して、オーディオ装置18に出力する。例えば、例えば、図9示す第3ボタンB3を利用者が押下した場合、説明の対象となるアイコンはアイコンX1であり、アイコン識別情報は「x001」である。このため、処理装置11は、図6に示す音データDs21を読み出して、オーディオ装置18に出力する。   Next, the processing device 11 determines whether or not the user has selected further explanation (step Sa6). When the user selects further explanation, for example, when the user presses the third button B3 shown in FIG. 9, the processing device 11 executes the second explanation of the icon using sound (step Sa7). . Specifically, the processing device 11 reads out sound data corresponding to an icon to be explained from the explanation table TBLc and outputs it to the audio device 18. For example, when the user presses the third button B3 shown in FIG. 9, for example, the icon to be described is the icon X1, and the icon identification information is “x001”. Therefore, the processing device 11 reads out the sound data Ds21 shown in FIG. 6 and outputs it to the audio device 18.

ステップSa7の処理が終了するか、またはステップSa6の判定結果が否定である場合には、処理装置11は全てのアイコンの説明が終了したか否かを判定する(ステップSa8)。全てのアイコンの説明が終了した場合、ステップSa8の判定結果は「YES」となり、処理装置11はアイコンの説明処理を終了する。   When the process of step Sa7 ends or when the determination result of step Sa6 is negative, the processing device 11 determines whether or not the explanation of all the icons has been completed (step Sa8). When the description of all icons is completed, the determination result in step Sa8 is “YES”, and the processing device 11 ends the icon description process.

一方、説明していないアイコンが存在する場合、ステップSa8の判定結果は「NO」となり、処理装置11はホーム画面に未表示のアイコンを一つ特定し(ステップSa9)、処理をステップSa1に戻す。
例えば、特定したアイコンが天気アプリに対応するアイコンX2である場合、まず、図10に示すように、アイコンX2が追加されたホーム画面が表示され、その後、図11に示すようにテキストの説明が表示欄A3に表示される。このテキストは、図6に示すテキストデータDt2に基づいて生成されたものである。
On the other hand, if there is an icon that has not been described, the determination result in step Sa8 is “NO”, the processing device 11 specifies one icon that is not displayed on the home screen (step Sa9), and the process returns to step Sa1. .
For example, when the identified icon is the icon X2 corresponding to the weather application, first, as shown in FIG. 10, the home screen to which the icon X2 is added is displayed, and then the text is explained as shown in FIG. It is displayed in the display column A3. This text is generated based on the text data Dt2 shown in FIG.

次に、割り込み処理について説明する。図12は割り込み処理の内容を示すフローチャートである。本実施形態では、所定の間隔(例えば、50ms)で割り込み処理が実行される。まず、処理装置11は、第1ボタンB1が押下されたか否かを、操作装置15から出力される操作信号に基づいて判定する(ステップSb1)。第1ボタンB1は、上述したように一つ前の動作に戻すこと指定するために用いられる。第1ボタンB1が押下されていれば、ステップSb1の判定結果は「YES」となり、処理装置11は第1ボタンB1が押下されたのが、テキストを用いた説明の前か否かを判定する(ステップSb2)。具体的には、図5に示すステップSa2の前であるか否かを処理装置11は判定する。   Next, interrupt processing will be described. FIG. 12 is a flowchart showing the contents of the interrupt process. In the present embodiment, interrupt processing is executed at a predetermined interval (for example, 50 ms). First, the processing device 11 determines whether or not the first button B1 is pressed based on the operation signal output from the operation device 15 (step Sb1). The first button B1 is used to designate returning to the previous operation as described above. If the first button B1 is pressed, the determination result in step Sb1 is “YES”, and the processing device 11 determines whether or not the first button B1 is pressed before the description using text. (Step Sb2). Specifically, the processing device 11 determines whether or not it is before step Sa2 shown in FIG.

テキストを用いた説明の前である場合、ステップSb2の判定結果は「YES」となり、処理装置11は、第1ボタンB1の押下と直前のアイコンとを対応付けて操作履歴テーブルTBLbに格納する(ステップSb21)。さらに、処理装置11は、直前のアイコンに対するテキストを用いた説明に処理を戻す。例えば、図10に示すようにアイコンX1とアイコンX2が表示されているが、アイコンX2についてテキストを用いた説明がなされる前の状態で、第1ボタンB1が押下されると、処理装置11はアイコンX1のテキストを用いた説明に処理を戻す(図8参照)。具体的には、処理装置11は、図5に示すアイコンの説明処理において、処理をステップSa2に戻す。これによって、利用者は既にテキストおよび音声の説明が終了している直前のアイコンについて、説明を再び受けることができる。   If it is before the description using text, the determination result in step Sb2 is “YES”, and the processing device 11 stores the depression of the first button B1 in association with the immediately preceding icon in the operation history table TBLb ( Step Sb21). Further, the processing device 11 returns the processing to the description using the text for the immediately preceding icon. For example, as shown in FIG. 10, when the icon X1 and the icon X2 are displayed, but the first button B1 is pressed in a state before the description using the text is performed on the icon X2, the processing device 11 The process returns to the description using the text of the icon X1 (see FIG. 8). Specifically, the processing device 11 returns the processing to step Sa2 in the icon explanation processing shown in FIG. As a result, the user can receive the explanation again for the icon immediately before the explanation of the text and the voice has already ended.

一方、第1ボタンB1の操作がテキストを用いた説明の後である場合、ステップSb2の判定結果は「NO」となり、処理装置11は第1ボタンB1の押下と直近に追加されたアイコンとを対応付けて操作履歴テーブルTBLbに格納する(ステップSb22)。さらに、処理装置11は、処理を音声の第1回説明に戻す。具体的には、処理装置11は、図5に示すアイコンの説明処理において、処理をステップSa4に戻す。これによって、利用者は音声の第1回説明が終了していても、音声による説明を最初から受けることができる。   On the other hand, if the operation of the first button B1 is after the description using text, the determination result in step Sb2 is “NO”, and the processing device 11 displays the pressing of the first button B1 and the most recently added icon. The associated information is stored in the operation history table TBLb (step Sb22). Further, the processing device 11 returns the processing to the first explanation of the voice. Specifically, the processing device 11 returns the processing to step Sa4 in the icon explanation processing shown in FIG. As a result, the user can receive a voice explanation from the beginning even if the first voice explanation is completed.

次に、第1ボタンB1が押下されておらず、ステップSb1の判定結果が「NO」となる場合、処理装置11は第2ボタンB2が押下されたか否かを、操作装置15から出力される操作信号に基づいて判定する(ステップSb5)。第2ボタンB2が押下されていない場合、判定結果は「NO」となり、次の割り込みタイミングまで待機する。   Next, when the first button B1 is not pressed and the determination result in step Sb1 is “NO”, the processing device 11 outputs whether or not the second button B2 is pressed from the operation device 15. A determination is made based on the operation signal (step Sb5). If the second button B2 is not pressed, the determination result is “NO”, and the process waits until the next interrupt timing.

一方、第2ボタンB2が押下されており、ステップSb5の判定結果が「YES」となる場合、処理装置11はアイコンの説明処理を図5に示すステップSa8に進める。例えば、図7に示すようにホーム画面にはアイコンX1が表示されテキストを用いた説明が始まってない場合、または図8に示すようにアイコンX1のテキストを用いた説明がなされているが、音声の説明が開始されていない場合に、第2ボタンB2を押下すると、アイコンX1の説明は終了し、アイコンX2の説明に移行する。   On the other hand, if the second button B2 is pressed and the determination result in step Sb5 is “YES”, the processing device 11 advances the icon explanation process to step Sa8 shown in FIG. For example, when the icon X1 is displayed on the home screen as shown in FIG. 7 and the explanation using the text has not started, or the explanation using the text of the icon X1 is shown as shown in FIG. If the second button B2 is pressed when the description of the icon X2 has not been started, the description of the icon X1 ends, and the description shifts to the description of the icon X2.

第1実施形態によれば、アイコンの説明を、テキストと音声を組み合わせて行うことができるので、文章を理解するのが苦手な高齢者であっても、音声によってアイコンの機能を理解することが可能になる。
また、テキストを用いた説明の後、所定時間が経過すると、音声による説明が開始されるが、テキストの説明でアプリの機能を理解できる利用者は、第2ボタンB2を操作することによって、次のアイコンの説明に移行できる。よって、アイコンの説明を段階的に提供でき、利用者は説明を受ける時間を短縮することが可能となる。
また、音声の説明は第1回目と第2回目とに分かれるが、第1回目の説明が終了した時点で、第2回目の説明を受けるか否かを利用者に尋ねるので、利用者のアプリに対する理解の程度に応じて、アイコンの説明を変更することが可能となる。
According to the first embodiment, the description of the icon can be performed by combining text and voice, so that even an elderly person who is not good at understanding the sentence can understand the function of the icon by voice. It becomes possible.
In addition, after a description using the text, when a predetermined time elapses, the description by voice is started. However, a user who can understand the function of the application by the description of the text can operate the second button B2 to operate the following. You can move to the explanation of the icon. Therefore, the explanation of the icon can be provided step by step, and the user can shorten the time for receiving the explanation.
In addition, the explanation of the voice is divided into the first time and the second time. When the first explanation is finished, the user is asked whether or not to receive the second explanation. Depending on the degree of understanding, the description of the icon can be changed.

<2.第2実施形態>
第1実施形態の音声の説明の時間は、同じアイコンであれば同一であるのに対し、第2実施形態に係る音声の説明は、同じアイコンであっても過去の利用者の操作装置15を用いた指示に基づいて変化させる点で相違する。
第2実施形態に係る情報処理装置100は、説明テーブルTBLcの替わりに説明テーブルTBLdを用いる点、および音声による説明における音データの選択の方法を除いて、図1に示す第1実施形態の情報処理装置100と同様である。
<2. Second Embodiment>
The explanation time of the voice in the first embodiment is the same if it is the same icon, whereas the explanation of the voice according to the second embodiment is based on the past user's operation device 15 even if the icon is the same. It differs in that it is changed based on the used instructions.
The information processing apparatus 100 according to the second embodiment uses the description table TBLd instead of the description table TBLc, and the information of the first embodiment shown in FIG. 1 except for the method of selecting sound data in the description by voice. This is the same as the processing apparatus 100.

図13に第2実施形態に用いる説明テーブルTBLdの一例を示す。この図に示すように説明テーブルTBLdには、アイコン識別情報と対応付けて、第1回説明の音データが3個および第2回説明の音データが3個記憶されている。
例えば、アイコン識別情報x001と対応付けて第1回説明用の音データDs11a、Ds11b、およびDs11c、ならびに第2回説明用の音データDs21a、Ds21b、およびDs21cが格納されている。ここで、音データDs11a、Ds11b、およびDs11cに基づく音声の時間をt11a、t11b、およびt11cとし、音データDs21a、Ds21b、およびDs21cに基づく音声の時間をt21a、t21b、およびt21cとすると、以下の式が成り立つ。
t11a<t11b<t11c
t21a<t21b<t21c
すなわち、説明テーブルTBLdには、説明時間の異なる3種類の音データが、第1回説明および第2回説明の各々に対応して記憶されている。
FIG. 13 shows an example of the explanation table TBLd used in the second embodiment. As shown in this figure, the explanation table TBLd stores three pieces of sound data for the first explanation and three pieces of sound data for the second explanation in association with the icon identification information.
For example, sound data Ds11a, Ds11b, and Ds11c for the first explanation and sound data Ds21a, Ds21b, and Ds21c for the second explanation are stored in association with the icon identification information x001. Here, when the sound times based on the sound data Ds11a, Ds11b, and Ds11c are t11a, t11b, and t11c, and the sound times based on the sound data Ds21a, Ds21b, and Ds21c are t21a, t21b, and t21c, The formula holds.
t11a <t11b <t11c
t21a <t21b <t21c
That is, in the explanation table TBLd, three types of sound data having different explanation times are stored corresponding to each of the first explanation and the second explanation.

第2実施形態では、アプリの使用回数に応じて音データを選択する。図14は音データの選択処理の内容を示すフローチャートである。まず、処理装置11(制御部32)は説明の対象となるアイコンを特定する(ステップSc1)。次に、処理装置11は、特定したアイコンに対応するアプリの使用履歴の数を計数する(ステップSc2)。具体的には、処理装置11は、使用履歴テーブルTBLaを参照して、特定したアイコンに対応するアプリの使用履歴の数を計数して計数値Nを得る。   In the second embodiment, sound data is selected according to the number of times the application is used. FIG. 14 is a flowchart showing the contents of the sound data selection process. First, the processing device 11 (control unit 32) specifies an icon to be described (step Sc1). Next, the processing apparatus 11 counts the number of application usage histories corresponding to the identified icon (step Sc2). Specifically, the processing device 11 refers to the usage history table TBLa, counts the number of usage histories of the application corresponding to the identified icon, and obtains the count value N.

この後、処理装置11は、計数値Nに応じた音データを選択する(ステップSc3)。処理装置11は、計数値NがN=0の場合、音声の説明が最も長い音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11cを選択し、音声の第2回説明では音データDs21cを選択する。   Thereafter, the processing device 11 selects sound data corresponding to the count value N (step Sc3). When the count value N is N = 0, the processing device 11 selects the sound data having the longest audio description. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11c is selected in the first explanation of the voice, and the sound data Ds21c is selected in the second explanation of the voice.

また、計数値Nが1≦N≦3の場合、音声の説明の長さが真ん中の音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11bを選択し、音声の第2回説明では音データDs21bを選択する。   When the count value N is 1 ≦ N ≦ 3, the sound data having the middle voice description length is selected. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11b is selected in the first explanation of the voice, and the sound data Ds21b is selected in the second explanation of the voice.

また、計数値Nが4≦Nの場合、音声の説明の長さが最も短い音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11aを選択し、音声の第2回説明では音データDs21aを選択する。   When the count value N is 4 ≦ N, the sound data having the shortest audio description length is selected. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11a is selected in the first explanation of the voice, and the sound data Ds21a is selected in the second explanation of the voice.

アプリの使用回数が大きいほど、利用者は当該アプリの操作に慣れているので、音声による説明が短くても利用者はアイコンに対応するアプリの機能を理解することが容易である。本実施形態によれば、アプリの使用回数が大きい程、音声の説明時間が短くなるように音データを選択したので、利用者の理解の程度に応じてアイコンの説明を実行することができる。   The larger the number of times the application is used, the more familiar the user is with the operation of the application. Therefore, even if the explanation by voice is short, the user can easily understand the function of the application corresponding to the icon. According to the present embodiment, since the sound data is selected so that the explanation time of the voice becomes shorter as the number of times the application is used, the explanation of the icon can be executed according to the degree of understanding of the user.

<3.第3実施形態>
上述した第2実施形態では、アプリの使用回数に応じて音声の説明に用いる音データを選択したが、第3実施形態ではアプリの使用回数に応じて音声の速度を変更する。
第3実施形態の情報処理装置100は、処理装置11(制御部32)がオーディオ装置18に対して音の再生速度をアプリの使用回数に応じて設定する点を除いて、図1に示す第1実施形態の情報処理装置100と同様に構成されている。
図15は、音声によるアイコンの説明の処理内容を示すフローチャートである。ステップSd1とステップSd2とは、上述した図14に示すステップSc1とステップSc2と同様に使用履歴テーブルTBLaを参照して、特定したアイコンに対応するアプリの使用履歴の数を計数して計数値Nを得ている。
<3. Third Embodiment>
In the second embodiment described above, the sound data used for the description of the sound is selected according to the number of times the application is used. In the third embodiment, the speed of the sound is changed according to the number of times the application is used.
The information processing apparatus 100 according to the third embodiment is the same as that shown in FIG. 1 except that the processing apparatus 11 (the control unit 32) sets the sound reproduction speed for the audio apparatus 18 according to the number of times the application is used. The configuration is the same as the information processing apparatus 100 of the embodiment.
FIG. 15 is a flowchart showing the processing contents of the description of the icon by voice. Steps Sd1 and Sd2 refer to the usage history table TBLa as in Steps Sc1 and Sc2 shown in FIG. 14 described above, count the number of usage histories of the application corresponding to the identified icon, and count value N Have gained.

この後、処理装置11は、計数値Nに応じた速度で音を再生する(ステップSd3)。具体的には、処理装置11は、オーディオ装置18に対して音の再生速度を指定する。計数値Nと説明速度の関係の一例を図16に示す。この例では計数値Nが0≦N≦2の場合、1倍速の再生となり、計数値Nが3≦N≦5の場合、1.1倍速の再生となり、計数値Nが6≦Nの場合、1.4倍速の再生となる。   Thereafter, the processing device 11 reproduces the sound at a speed corresponding to the count value N (step Sd3). Specifically, the processing device 11 specifies a sound reproduction speed for the audio device 18. An example of the relationship between the count value N and the explanation speed is shown in FIG. In this example, when the count value N is 0 ≦ N ≦ 2, playback is 1 × speed, when the count value N is 3 ≦ N ≦ 5, playback is 1.1 × speed, and when the count value N is 6 ≦ N , Playback at 1.4 times speed.

アプリの使用回数が大きいほど、利用者が操作に慣れているので、音声による説明速度が速くなっても利用者はアイコンに対応するアプリの機能を理解することが容易である。本実施形態によれば、アプリの使用回数が大きい程、音声の再生速度が速くなるように設定したので、利用者の理解の程度に応じてアイコンの説明を実行することができる。   As the number of times the application is used increases, the user is used to the operation. Therefore, even if the speed of explanation by voice increases, the user can easily understand the function of the application corresponding to the icon. According to this embodiment, since the voice playback speed is set to be faster as the number of times the application is used, the explanation of the icons can be executed according to the degree of understanding of the user.

<4.第4実施形態>
第2実施形態に係る情報処理装置100は、アプリの使用回数に応じて音データを選択することによって、音声の説明時間を変更した。これに対して、第4実施形態に係る情報処理装置100は、アイコンを表示装置14に表示してから利用者が第2ボタンB2を操作して次のアイコンを表示させる指示を処理装置11が受け付けるまでの時間に応じてアイコンの説明を変化させる。
第4実施形態に係る情報処理装置100は、音データを選択する処理を除いて第2実施形態と同様である。
<4. Fourth Embodiment>
The information processing apparatus 100 according to the second embodiment changes the audio explanation time by selecting sound data according to the number of times the application is used. In contrast, in the information processing apparatus 100 according to the fourth embodiment, after the icon is displayed on the display device 14, the processing device 11 instructs the user to operate the second button B2 to display the next icon. The description of the icon is changed according to the time until the reception.
The information processing apparatus 100 according to the fourth embodiment is the same as that of the second embodiment except for the process of selecting sound data.

図17は第4実施形態に係る音データの選択処理の内容を示すフローチャートである。まず、処理装置11(制御部32)は説明の対象となるアイコンを特定する(ステップSe1)。次に、処理装置11は、操作履歴テーブルTBLを参照し、アイコンが表示されてから第2ボタンB2が押下されるまでの時間を算出する(ステップSe2)。この例では、アイコンの説明時において現在から最も近い過去の第2ボタンB2の操作を特定する。但し、複数回の操作について平均を算出して、アイコンが表示されてから第2ボタンB2が押下されるまでの時間を特定してもよい。   FIG. 17 is a flowchart showing the contents of sound data selection processing according to the fourth embodiment. First, the processing device 11 (control unit 32) specifies an icon to be explained (step Se1). Next, the processing device 11 refers to the operation history table TBL and calculates the time from when the icon is displayed until the second button B2 is pressed (step Se2). In this example, the past operation of the second button B2 closest to the present at the time of explaining the icon is specified. However, an average may be calculated for a plurality of operations, and the time from when the icon is displayed until the second button B2 is pressed may be specified.

この後、処理装置11は、算出した時間に応じた音データを選択する(ステップSe3)。処理装置11は、算出した時間Tが15秒未満の場合、音声の説明が最も長い音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11cを選択し、音声の第2回説明では音データDs21cを選択する。   Thereafter, the processing device 11 selects sound data corresponding to the calculated time (step Se3). When the calculated time T is less than 15 seconds, the processing device 11 selects sound data having the longest audio description. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11c is selected in the first explanation of the voice, and the sound data Ds21c is selected in the second explanation of the voice.

また、算出した時間Tが15秒以上30秒未満の場合、音声の説明の長さが真ん中の音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11bを選択し、音声の第2回説明では音データDs21bを選択する。   If the calculated time T is not less than 15 seconds and less than 30 seconds, the sound data having the middle voice description length is selected. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11b is selected in the first explanation of the voice, and the sound data Ds21b is selected in the second explanation of the voice.

また、算出した時間Tが30秒以上の場合、音声の説明の長さが最も短い音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11aを選択し、音声の第2回説明では音データDs21aを選択する。   If the calculated time T is 30 seconds or longer, the sound data with the shortest audio description is selected. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11a is selected in the first explanation of the voice, and the sound data Ds21a is selected in the second explanation of the voice.

アイコンをホーム画面に表示した状態で、利用者が第2ボタンB2を操作するまでの時間が短いほど、利用者は当該アイコンの説明を短縮して、次のアイコンの説明に進みたいと望んでいると推測できる。そのような場合、当該アイコンに対応するアプリについて利用者が操作に慣れていることが多い。よって、アイコンをホーム画面に表示した状態で、利用者が第2ボタンB2を操作するまでの時間が短ければ、音声による説明が短くても利用者はアイコンに対応するアプリの機能を理解することが容易である。本実施形態によれば、算出した時間が短い程、音声の説明時間が短くなるように音データを選択したので、利用者の理解の程度に応じてアイコンの説明を実行することができる。   With the icon displayed on the home screen, the shorter the time it takes for the user to operate the second button B2, the shorter the user wants to explain the icon and go to the next icon explanation. I can guess. In such a case, the user is often used to the operation for the application corresponding to the icon. Therefore, if the time until the user operates the second button B2 in a state where the icon is displayed on the home screen is short, the user understands the function of the application corresponding to the icon even if the voice explanation is short. Is easy. According to the present embodiment, the sound data is selected such that the shorter the calculated time is, the shorter the sound explanation time is, so that the explanation of the icon can be executed according to the degree of understanding of the user.

<5.第5実施形態>
第3実施形態に係る情報処理装置100は、アプリの使用回数に応じて音声の説明速度を変更した。これに対して、第5実施形態に係る情報処理装置100は、アイコンを表示装置14に表示してから利用者が第2ボタンB2を操作して次のアイコンを表示させる指示を処理装置11が受け付けるまでの時間に応じて音声の説明速度を変化させる。
第5実施形態に係る情報処理装置100は、音データを選択する処理を除いて第3実施形態と同様である。
<5. Fifth Embodiment>
The information processing apparatus 100 according to the third embodiment changes the voice explanation speed according to the number of times the application is used. In contrast, in the information processing apparatus 100 according to the fifth embodiment, after the icon is displayed on the display device 14, the processing device 11 instructs the user to operate the second button B2 to display the next icon. The voice explanation speed is changed according to the time until the reception.
The information processing apparatus 100 according to the fifth embodiment is the same as that of the third embodiment except for the process of selecting sound data.

図18は、音声によるアイコンの説明の処理内容を示すフローチャートである。ステップSf1とステップSf2とでは、上述した図17に示すステップSe1とステップSe2と同様に、操作履歴テーブルTBLbを参照して、アイコンが表示されてから第2ボタンB2が押下されるまでの時間を算出している。   FIG. 18 is a flowchart showing the processing contents of the explanation of the icon by voice. In step Sf1 and step Sf2, as in step Se1 and step Se2 shown in FIG. 17 described above, the time from when the icon is displayed until the second button B2 is pressed is referred to by referring to the operation history table TBLb. Calculated.

この後、処理装置11は、算出した時間に応じた速度で音を再生する(ステップSf3)。具体的には、処理装置11は、オーディオ装置に対して音の再生速度を指定する。算出した時間と速度の関係の一例を図19に示す。この例では算出した時間TがT<15の場合、1.4倍速の再生となり、算出した時間Tが15≦T<30の場合、1.1倍速の再生となり、算出した時間Tが30≦Tの場合、1倍速の再生となる。   Thereafter, the processing device 11 reproduces the sound at a speed corresponding to the calculated time (step Sf3). Specifically, the processing device 11 designates a sound reproduction speed for the audio device. An example of the relationship between the calculated time and speed is shown in FIG. In this example, when the calculated time T is T <15, playback is 1.4 times faster, and when the calculated time T is 15 ≦ T <30, playback is 1.1 times faster, and the calculated time T is 30 ≦ 30. In the case of T, playback at 1 × speed is performed.

アイコンをホーム画面に表示した状態で、利用者が第2ボタンB2を操作するまでの時間が短いほど、当該アイコンに対応するアプリについて利用者が操作に慣れていることが多い。よって、算出した時間が短ければ、音声による説明速度が速くても利用者はアイコンに対応するアプリの機能を理解することが容易である。本実施形態によれば、算出した時間が短い程、音声の説明速度が速くなるように音を再生したので、利用者の理解の程度に応じてアイコンの説明速度を変化させることができる。   In a state where the icon is displayed on the home screen, the shorter the time until the user operates the second button B2, the more often the user is used to the operation corresponding to the icon. Therefore, if the calculated time is short, it is easy for the user to understand the function of the application corresponding to the icon even if the voice explanation speed is high. According to this embodiment, since the sound is reproduced so that the explanation speed of the voice becomes faster as the calculated time is shorter, the explanation speed of the icon can be changed according to the degree of understanding of the user.

<6.第6実施形態>
第4実施形態および第5実施形態に係る情報処理装置100は、アイコンを表示装置14に表示してから利用者が第2ボタンB2を操作して次のアイコンを表示させる指示を処理装置11が受け付けるまでの時間に応じて、音声によるアイコンの説明を変化させた。
これに対して第6実施形態に係る情報処理装置100は、一のアイコンの説明を再び実行させる第1ボタンB1の操作回数に応じて、音声によるアイコンの説明を変化させる。
<6. Sixth Embodiment>
In the information processing apparatus 100 according to the fourth embodiment and the fifth embodiment, the processing apparatus 11 displays an icon on the display apparatus 14 and then the user operates the second button B2 to display the next icon. The explanation of the icon by voice was changed according to the time to accept.
On the other hand, the information processing apparatus 100 according to the sixth embodiment changes the description of the icon by voice according to the number of operations of the first button B1 that causes the description of one icon to be executed again.

第6実施形態に係る情報処理装置100は、音データを選択する処理を除いて第4実施形態と同様である。
図20は第6実施形態に係る音データの選択処理の内容を示すフローチャートである。まず、処理装置11(制御部32)は説明の対象となるアイコンを特定する(ステップSg1)。次に、処理装置11は、操作履歴テーブルTBLbを参照し、特定したアイコンに関連して第1ボタンB1の操作履歴を計数して操作回数を特定する (ステップSg2)。
The information processing apparatus 100 according to the sixth embodiment is the same as that of the fourth embodiment except for the process of selecting sound data.
FIG. 20 is a flowchart showing the contents of sound data selection processing according to the sixth embodiment. First, the processing device 11 (control unit 32) specifies an icon to be described (step Sg1). Next, the processing device 11 refers to the operation history table TBLb, counts the operation history of the first button B1 in relation to the specified icon, and specifies the number of operations (step Sg2).

この後、処理装置11は、操作回数Kに応じた音データを選択する(ステップSe3)。処理装置11は、操作回数Kが5回以上の場合、音声の説明が最も長い音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11cを選択し、音声の第2回説明では音データDs21cを選択する。   Thereafter, the processing device 11 selects sound data corresponding to the number of operations K (step Se3). When the number of operations K is 5 or more, the processing device 11 selects sound data having the longest audio description. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11c is selected in the first explanation of the voice, and the sound data Ds21c is selected in the second explanation of the voice.

また、操作回数Kが2回以上5回未満の場合、音声の説明の長さが真ん中の音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11bを選択し、音声の第2回説明では音データDs21bを選択する。   When the number of operations K is 2 times or more and less than 5 times, the sound data having the middle voice description length is selected. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11b is selected in the first explanation of the voice, and the sound data Ds21b is selected in the second explanation of the voice.

また、操作回数Kが2回未満の場合、音声の説明の長さが最も短い音データを選択する。例えば、地図アプリが特定したアイコンに対応するアプリである場合、音声の第1回説明では音データDs11aを選択し、音声の第2回説明では音データDs21aを選択する。   If the number of operations K is less than 2, the sound data with the shortest audio description length is selected. For example, when the map application is an application corresponding to the specified icon, the sound data Ds11a is selected in the first explanation of the voice, and the sound data Ds21a is selected in the second explanation of the voice.

アイコンをホーム画面に表示した状態で、利用者が第1ボタンB1を操作するのは、アイコンの説明を再度聞きたい場合である。従って、第1ボタンB1の操作回数が大きいアイコンに対応するアプリは、利用者がアプリの内容を理解できてないことが多い。本実施形態では、アイコンの説明を再び実行させる利用者の指示の回数に応じて、音声を用いたアイコンの説明を変化させたので、利用者の理解の程度に応じてアイコンの説明を実行することができる。   The user operates the first button B1 with the icon displayed on the home screen when he wants to hear the explanation of the icon again. Therefore, the application corresponding to the icon with a large number of operations of the first button B1 often does not allow the user to understand the contents of the application. In the present embodiment, since the description of the icon using the voice is changed according to the number of times the user instructs to execute the description of the icon again, the description of the icon is executed according to the degree of understanding of the user. be able to.

<7.第7実施形態>
第6実施形態に係る情報処理装置100は、第1ボタンB1の操作回数に応じて、音声の説明時間を変更するものであった。これに対して第7実施形態に係る情報処理装置100は、第1ボタンB1の操作回数に応じて、音声の説明速度を変更するものである。
第7実施形態に係る情報処理装置100は、音データを選択する処理を除いて第6実施形態と同様である。
<7. Seventh Embodiment>
The information processing apparatus 100 according to the sixth embodiment changes the audio explanation time according to the number of operations of the first button B1. In contrast, the information processing apparatus 100 according to the seventh embodiment changes the voice explanation speed in accordance with the number of operations of the first button B1.
The information processing apparatus 100 according to the seventh embodiment is the same as that of the sixth embodiment except for the process of selecting sound data.

図21は、音声によるアイコンの説明の処理内容を示すフローチャートである。ステップSh1とステップSh2とでは、上述した図20に示すステップSg1とステップSg2と同様に、操作履歴テーブルTBLbを参照し、特定したアイコンに関連して第1ボタンB1の操作履歴を計数して操作回数Kを特定する。   FIG. 21 is a flowchart showing the processing contents of the description of the icon by voice. In step Sh1 and step Sh2, similarly to step Sg1 and step Sg2 shown in FIG. 20 described above, the operation history table TBLb is referred to, and the operation history of the first button B1 is counted in relation to the specified icon. The number of times K is specified.

この後、処理装置11は、操作回数Kに応じた速度で音を再生する(ステップSh3)。具体的には、処理装置11は、オーディオ装置に対して音の再生速度を指定する。操作回数Kと速度の関係の一例を図22に示す。この例では操作回数KがK=0の場合、1.4倍速の再生となり、操作回数KがK=1の場合、1.1倍速の再生となり、操作回数Kが2≦Kの場合、1倍速の再生となる。   Thereafter, the processing device 11 reproduces a sound at a speed corresponding to the number of operations K (step Sh3). Specifically, the processing device 11 designates a sound reproduction speed for the audio device. An example of the relationship between the number of operations K and the speed is shown in FIG. In this example, when the number of operations K is K = 0, playback is performed at 1.4 times speed, when the number of operations K is K = 1, playback is performed at 1.1 times speed, and when the number of operations K is 2 ≦ K, 1 Double speed playback.

アイコンをホーム画面に表示した状態で、利用者が第1ボタンB1を操作する操作回数Kが少ないほど、当該アイコンに対応するアプリについて利用者が操作に慣れていることが多い。よって、操作回数Kが小さければ、音声による説明速度が速くても利用者はアイコンに対応するアプリの機能を理解することが容易である。本実施形態によれば、操作回数Kが小さい程、音声の説明速度が速くなるように音を再生したので、利用者の理解の程度に応じてアイコンの説明速度を変化させることができる。   In a state where the icon is displayed on the home screen, the smaller the number of operations K the user operates the first button B1, the more often the user is used to the operation corresponding to the icon. Therefore, if the number of operations K is small, the user can easily understand the function of the application corresponding to the icon even if the explanation speed by voice is fast. According to the present embodiment, the sound is reproduced so that the voice explanation speed becomes faster as the number of operations K is smaller. Therefore, the icon explanation speed can be changed according to the degree of understanding of the user.

<8.変形例>
本発明は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
<8. Modification>
The present invention is not limited to the embodiments exemplified above. Specific modifications are exemplified below. Two or more aspects arbitrarily selected from the following examples may be merged.

(1)前述の各形態では、所定時間が経過すると、音声を用いた第1回説明が実行されたが(図1参照)、本発明はこれに限定されるものではない。例えば、所定時間が経過しても第2ボタンB2の操作がなされない場合、処理装置11は、図9に示すようにより詳しい説明を希望するか否かの選択を利用者に促す画面を表示させ、利用者が希望する場合に音声による第1回目の説明を実行してもよい。
また、アイコンの説明は、テキストの表示によって説明した後、音声を用いてアイコンの説明を実行した。本発明はこれに限定されるものではなく、音声の替わりに動画で説明してもよい。
この場合、上述した各実施形態の音データの替わりに動画データを用いればよい。制御部32は、必要に応じて圧縮された動画データを伸長し、伸長した動画データを表示装置14に供給する。上述した第2実施形態等では、複数の音声による説明時間に各々対応した音データを説明テーブルTBLdに格納したが、音データの替わりに複数の動画による説明時間に各々対応した動画データを格納すればよい。そして、利用者が操作装置15を用いて入力した過去の指示に基づいて、動画データを選択すればよい。
即ち、制御部32は、アイコンの説明をテキストで表示装置14に表示させてから所定時間が経過すると、表示装置14を用いて動画の表示でアイコンの説明を実行させる。
(1) In each of the above embodiments, when a predetermined time has elapsed, the first explanation using voice is executed (see FIG. 1), but the present invention is not limited to this. For example, when the second button B2 is not operated even after a predetermined time has elapsed, the processing device 11 displays a screen that prompts the user to select whether or not a more detailed explanation is desired as shown in FIG. When the user desires, the first explanation by voice may be executed.
Further, the explanation of the icons was explained by displaying the text, and then the explanation of the icons was executed using voice. The present invention is not limited to this, and may be described with moving images instead of sounds.
In this case, moving image data may be used in place of the sound data of each embodiment described above. The control unit 32 expands the compressed moving image data as necessary, and supplies the expanded moving image data to the display device 14. In the second embodiment and the like described above, sound data respectively corresponding to explanation times by a plurality of voices is stored in the explanation table TBLd. However, moving image data respectively corresponding to explanation times by a plurality of videos is stored instead of sound data. That's fine. Then, the moving image data may be selected based on past instructions input by the user using the operation device 15.
That is, the control unit 32 causes the display device 14 to execute the icon description by displaying the moving image when a predetermined time has elapsed after the description of the icon is displayed on the display device 14 as text.

また、上述した第3実施形態、第5実施形態、および第7実施形態では、音を再生する速度を変化させたが、音データの替わりに動画データを用いる場合には、動画による説明において、動画の再生速度を変化させればよい。   Further, in the third embodiment, the fifth embodiment, and the seventh embodiment described above, the speed at which sound is reproduced is changed. However, when moving image data is used instead of sound data, What is necessary is just to change the reproduction speed of a moving image.

また、上述した第2実施形態等では、音声の説明を第1回と第2回に分けたが、そのうち一方を音声による説明とし、他方を動画による説明としてもよい。特に、第1回目の説明を音声とし、第2回目の説明を動画とすることが好ましい。動画の再生は、処理負荷が音の再生よりも重く、また消費電流も大きい。第1回目の音声による説明で利用者の理解が得られることがあり、第2回目の説明が不要になる場合がある。そのような場合に、情報処理装置100の処理負荷を軽減するとともに、消費電力を削減することができる。   Further, in the second embodiment and the like described above, the explanation of the voice is divided into the first time and the second time, but one of them may be explained by the voice and the other may be explained by the moving image. In particular, it is preferable that the first explanation is a sound and the second explanation is a moving image. In the reproduction of moving images, the processing load is heavier than the reproduction of sound, and the current consumption is large. A user's understanding may be obtained by the first audio explanation, and the second explanation may be unnecessary. In such a case, the processing load on the information processing apparatus 100 can be reduced and the power consumption can be reduced.

(2)前述の各形態および変形例において、制御部32は、音声または動画を用いた説明に使用履歴を反映させることが好ましい。まず、動画の場合には、使用履歴として実際の操作画面を記録した動画データを生成し、使用履歴テーブルTBLaに記憶する。使用履歴テーブルTBLaから動画データを読み出して再生してもよい。例えば、高齢者が孫の家において地図アプリを起動し、自宅までの経路を検索したとする。この場合、アプリを起動した後、まず経路の探索のために自宅の住所を入力し、次に探索の指示を入力し、その結果として経路探索の結果画面が得られる。動画では、これを再現する。使用履歴は、利用者本人が、過去にアプリを利用した履歴であるので、利用者の理解は深まるといった利点がある。
また、音声を用いた説明に使用履歴を反映させる場合は、使用履歴を参照して、例えば、「昨日、浜松の天気を調べました。」といったように、使用履歴に記録されている動作内容を取り込んだ音データとすることが好ましい。
(2) In each above-mentioned form and modification, it is preferred that control part 32 reflect use history in explanation using a voice or animation. First, in the case of a moving image, moving image data in which an actual operation screen is recorded as a usage history is generated and stored in the usage history table TBLa. The moving image data may be read from the usage history table TBLa and reproduced. For example, it is assumed that an elderly person starts a map application in a grandchild's house and searches for a route to the house. In this case, after starting the application, first the home address is input for the route search, then the search instruction is input, and as a result, the route search result screen is obtained. This is reproduced in the video. Since the use history is a history that the user himself has used the application in the past, there is an advantage that the user's understanding deepens.
Also, if you want to reflect the usage history in the explanation using voice, refer to the usage history, for example, “We checked the weather in Hamamatsu yesterday.” It is preferable that the sound data is taken in.

(3)前述の各形態では、第2ボタンB2を押下することで、一のアイコンが表示装置14に表示されている状態で次のアイコンを表示させる利用者の指示を入力したが、本発明はこれに限定されるものではない。利用者の指示を入力できるのであれば、どのような方法であってもよい。例えば、音声による入力であってもよい。この場合、操作装置15は、音のインターフェースを備える。 (3) In each of the above-described embodiments, the user's instruction to display the next icon is input in a state where one icon is displayed on the display device 14 by pressing the second button B2. Is not limited to this. Any method may be used as long as a user instruction can be input. For example, input by voice may be used. In this case, the controller device 15 includes a sound interface.

(4)前述の各形態では、音声の第1回目の終了の後に、利用者に対して第2回目の説明を実行するか否かについて入力を促した(図9参照)。しかしながら、本願発明はこれに限定されるものではない。例えば、第1回目の説明が終了してから、一定時間内に第2ボタンB2の操作が無い場合には、第2回目の説明を実行してもよい。 (4) In the above-described embodiments, after the first end of the voice, the user is prompted to input whether to execute the second description (see FIG. 9). However, the present invention is not limited to this. For example, when the second button B2 is not operated within a certain time after the first explanation is completed, the second explanation may be executed.

(5)前述の各形態において、制御部32は、利用者の属性に応じて、音声または動画を用いた説明の時間を変化させてもよい。利用者の属性は、例えば、利用者の年齢、性別、家族構成、趣味等の個人情報である。例えば、65歳を超える高齢者であっても、趣味が写真撮影であれば、カメラアプリについては、長い説明が無くてもアプリの機能を十分理解できる可能性が高い。また、年齢が高くなると次第に理解力が低下する傾向にある。換言すれば、利用者の属性に基づいて、一のアイコンのアプリに対する利用者の理解の程度を推定することができる。一方、説明時間および説明速度は、利用者のアプリに対する理解の程度に応じて定めることが好ましい。 (5) In each form mentioned above, the control part 32 may change the time of the description using an audio | voice or a moving image according to a user's attribute. User attributes are, for example, personal information such as the user's age, gender, family structure, and hobbies. For example, even if it is an elderly person over 65 years old, if the hobby is photography, there is a high possibility that the function of the app can be sufficiently understood without a long explanation for the camera app. In addition, understanding tends to decline gradually as the age increases. In other words, it is possible to estimate the degree of understanding of the user with respect to the application of one icon based on the user attribute. On the other hand, the explanation time and the explanation speed are preferably determined according to the degree of understanding of the user's app.

そこで、記憶装置12に利用者の属性の各要素をプロファイルとして予め記憶しておく。制御部32は、利用者の属性の各要素を取得し、各要素を数値に変換し、変換した数値をアプリに対する理解力を評価する評価式に代入して評価値を取得する。そして、制御部32は評価値に基づいて説明時間および説明速度を決定してもよい。   Therefore, each element of the user attribute is stored in advance in the storage device 12 as a profile. The control unit 32 acquires each element of the attribute of the user, converts each element into a numerical value, and substitutes the converted numerical value into an evaluation formula that evaluates understanding of the application to acquire an evaluation value. Then, the control unit 32 may determine the explanation time and the explanation speed based on the evaluation value.

(6)前述の各形態では、音声または動画を用いた説明の時間は、処理装置11が決めていたが、予め利用者が入力できるようにしてもよい。例えば、各種の設定を行うことが可能な設定画面において、「短い」「普通」「長い」といった候補の中から一つを選択できるようにしてもよい。この場合、制御部32は、利用者の指示に応じて、音声または動画を用いた説明の時間を設定する。 (6) In each of the above-described embodiments, the processing device 11 determines the explanation time using audio or moving images, but the user may be allowed to input in advance. For example, on a setting screen on which various settings can be made, one of candidates such as “short”, “normal”, and “long” may be selected. In this case, the control unit 32 sets a description time using audio or a moving image in accordance with a user instruction.

(7)前述の各形態では、携帯電話機またはスマートフォン等の可搬型の情報処理装置を情報処理装置100として例示したが、情報処理装置100の具体的な形態は任意であり、前述の各形態の例示には限定されない。例えば、可搬型または据置型のパーソナルコンピュータを情報処理装置100として利用してもよい。 (7) In each of the above embodiments, a portable information processing device such as a mobile phone or a smartphone has been exemplified as the information processing device 100. However, a specific form of the information processing device 100 is arbitrary, It is not limited to the illustration. For example, a portable or stationary personal computer may be used as the information processing apparatus 100.

(8)前述の各形態では、記憶装置12は、処理装置11が読取可能な記録媒体であり、ROMおよびRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD−ROM(Compact Disc−ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。なお、基地局は、入力キーなどの入力装置や、ディスプレイなどの出力装置を含んでいてもよい。 (8) In each of the above-described embodiments, the storage device 12 is a recording medium that can be read by the processing device 11 and is exemplified by a ROM, a RAM, and the like. Disk, Blu-ray (registered trademark) disk, smart card, flash memory device (eg, card, stick, key drive), CD-ROM (Compact Disc-ROM), register, removable disk, hard disk, floppy (registered trademark) A) a disk, magnetic strip, database, server or other suitable storage medium. In addition, the program may be transmitted from a network via a telecommunication line. Further, the program may be transmitted from a communication network via an electric communication line. The base station may include an input device such as an input key and an output device such as a display.

(9)前述の各形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 (9) Each form mentioned above is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (registered trademark). , GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark) ), A system using other appropriate systems, and / or a next-generation system extended based on these systems.

(10)前述の各形態において、基地局によって行われるとした特定動作(例えば、基地局による位置情報の特定)は、場合によってはその上位ノード(upper node)によって行われることもある。基地局を有する1つまたは複数のネットワークノード(network nodes)からなるネットワークにおいて、端末との通信のために行われる様々な動作は、基地局および/または基地局以外の他のネットワークノード(例えば、MMEまたはS-GWなどが考えられるが、これらに限られない)によって行われ得ることは明らかである。上記において基地局以外の他のネットワークノードが1つである場合を例示したが、複数の他のネットワークノードの組み合わせ(例えば、MMEおよびS-GW)であってもよい。 (10) In each of the above-described embodiments, the specific operation performed by the base station (for example, specification of position information by the base station) may be performed by the upper node in some cases. In a network composed of one or more network nodes having a base station, various operations performed for communication with a terminal may be performed by the base station and / or other network nodes other than the base station (e.g., Obviously, this can be done by MME or S-GW, but not limited to these. Although the case where there is one network node other than the base station in the above is illustrated, a combination of a plurality of other network nodes (for example, MME and S-GW) may be used.

(11)前述の各形態において、説明した情報及び信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
(11) In each of the above embodiments, the information and signals described may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of
Note that the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning.

(12)前述の各形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 (12) In each of the above-described forms, input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

(13)前述の各形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 (13) In each of the above-described embodiments, the determination may be performed by a value (0 or 1) represented by 1 bit, or may be performed by a true / false value (Boolean: true or false). The comparison may be performed by numerical comparison (for example, comparison with a predetermined value).

(14)前述の各形態において例示したフローチャートにおいて、各ステップの順序を変更してもよい。すなわち、本発明の好適な態様における各処理の順序は、特定の順序に限定されない。 (14) In the flowcharts exemplified in the above embodiments, the order of the steps may be changed. That is, the order of each process in the preferred embodiment of the present invention is not limited to a specific order.

(15)図2に例示された各機能は、ハードウェアおよびソフトウェアの任意の組合せによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。 (15) Each function illustrated in FIG. 2 is realized by any combination of hardware and software. Each function may be realized by a single device, or may be realized by two or more devices configured separately from each other.

(16)前述の各形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順または機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(16) The program exemplified in each of the above-described forms, regardless of whether it is called software, firmware, middleware, microcode, hardware description language, or another name, is an instruction, instruction set, code, code segment, It should be interpreted broadly to mean program code, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures or functions, etc.
Also, software, instructions, etc. may be transmitted / received via a transmission medium. For example, software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.

(17)前述の各形態において、「システム」および「ネットワーク」という用語は、互換的に使用される。 (17) In the above embodiments, the terms “system” and “network” are used interchangeably.

(18)前述の各形態において、基地局は、1つまたは複数(例えば、3つ)の(セクタとも呼ばれる)セルを収容することができる。基地局が複数のセルを収容する場合、基地局のカバレッジエリア全体は複数のより小さいエリアに区分でき、各々のより小さいエリアは、基地局サブシステム(例えば、屋内用の小型基地局RRH:Remote Radio Head)によって通信サービスを提供することもできる。「セル」または「セクタ」という用語は、このカバレッジにおいて通信サービスを行う基地局、および/または基地局サブシステムのカバレッジエリアの一部または全体を指す。さらに、「基地局」「eNB」、「セル」、および「セクタ」という用語は、本明細書では互換的に使用され得る。基地局は、固定局(fixed station)、NodeB、eNodeB(eNB)、アクセスポイント(access point)、フェムトセル、スモールセルなどの用語で呼ばれる場合もある。 (18) In each of the above-described configurations, the base station can accommodate one or a plurality of (for example, three) cells (also referred to as sectors). When the base station accommodates a plurality of cells, the entire coverage area of the base station can be divided into a plurality of smaller areas, and each smaller area can be divided into a base station subsystem (for example, an indoor small base station RRH: Remote). Communication service can also be provided by Radio Head). The term “cell” or “sector” refers to part or all of the coverage area of a base station and / or base station subsystem that provides communication services in this coverage. Further, the terms “base station”, “eNB”, “cell”, and “sector” may be used interchangeably herein. A base station may also be referred to in terms such as a fixed station, NodeB, eNodeB (eNB), access point, femtocell, small cell, and the like.

(19)前述の各形態において、情報処理装置100は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。 (19) In each embodiment described above, the information processing apparatus 100 includes a case where it is a mobile station. A mobile station is defined by those skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be called terminal, remote terminal, handset, user agent, mobile client, client, or some other appropriate terminology.

(20)前述の各形態において、「接続された(connected)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」されると考えることができる。 (20) In each of the foregoing forms, the term “connected”, or any variation thereof, means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” elements. The connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, and as some non-limiting and non-inclusive examples By using electromagnetic energy, such as electromagnetic energy having wavelengths in the region, the microwave region and the light (both visible and invisible) region can be considered “connected” to each other.

(21)前述の各形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 (21) In each of the above-described embodiments, the description “based on” does not mean “based only on”, unless otherwise specified. In other words, the phrase “based on” means both “based only on” and “based at least on.”

(22)「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 (22) As long as “including”, “comprising”, and variations thereof are used in this specification or the claims, these terms are similar to the term “comprising”. It is intended to be comprehensive. Furthermore, the term “or” as used herein or in the claims is not intended to be an exclusive OR.

(23)本願の全体において、例えば、英語におけるa、anおよびtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。 (23) Throughout this application, if articles are added by translation, for example, a, an and the in English, these articles are clearly not otherwise indicated by context, Includes multiple.

(24)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組合わせてもよい。 (24) It will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and changes without departing from the spirit and scope of the present invention determined based on the description of the scope of claims. Accordingly, the description herein is for illustrative purposes and does not have any limiting meaning to the present invention. Moreover, you may combine the some aspect selected from the aspect illustrated in this specification.

(25)前述の各形態において、アイコンの説明を表示するテキストの表示時間をアプリの使用頻度、第2ボタンB2が操作されるまでの時間、性別、または年齢によって変更してもよい。
また、アプリはプリンインストールに限られず、ダウンロードされたものであってもよい。
また、ダウンロードしたアプリについては、処理装置11がその説明をインターネットで検索して、アイコンの説明に用いるテキストデータ、音声データ、動画データ等の説明データを生成してもよい。
また、テキストデータ、音声データ、動画データは、アプリに組み込まれていてもよいし、処理装置11がインターネット経由で所定のサーバから取得してもよい。
くわえて、処理装置11はアプリのダウンロードサイトにアクセスして内容を説明するテキストデータを取得し、これを要約して簡易な説明をテキスト表示に用い、詳細な説明を自動的に読み上げて音声による説明を実行してもよい。
(25) In each of the above-described embodiments, the display time of the text for displaying the explanation of the icon may be changed depending on the usage frequency of the app, the time until the second button B2 is operated, the sex, or the age.
The application is not limited to the pudding installation, and may be downloaded.
For the downloaded application, the processing device 11 may search for the description on the Internet and generate description data such as text data, audio data, and moving image data used for explaining the icon.
In addition, text data, audio data, and moving image data may be incorporated in the application, or the processing device 11 may acquire the data from a predetermined server via the Internet.
In addition, the processing device 11 accesses the download site of the application to acquire text data that explains the contents, summarizes this, uses a simple description for text display, automatically reads out the detailed description, and uses voice An explanation may be executed.

100…情報処理装置、11…処理装置、12…記憶装置、13…通信装置、14…表示装置、15…操作装置、16…GPS装置、17…計時装置、18…オーディオ装置、31…履歴管理部、32…制御部、TBLa…使用履歴テーブル、TBLb…操作履歴テーブル、TBLc, TBLd…説明テーブル、X1〜X8…アイコン、B1…第1ボタン、B2…第2ボタン。
DESCRIPTION OF SYMBOLS 100 ... Information processing apparatus, 11 ... Processing apparatus, 12 ... Memory | storage device, 13 ... Communication apparatus, 14 ... Display apparatus, 15 ... Operation apparatus, 16 ... GPS apparatus, 17 ... Time measuring apparatus, 18 ... Audio apparatus, 31 ... History management 32, control unit, TBLa ... usage history table, TBLb ... operation history table, TBLc, TBLd ... description table, X1-X8 ... icon, B1 ... first button, B2 ... second button.

Claims (10)

複数のアイコンを表示可能な表示装置、利用者が指示を入力するための操作装置、および音を放音するオーディオ装置を備え、複数のアプリケーションを実行可能な情報処理装置のプロセッサを、
前記複数のアイコンのうち一のアイコンの説明をテキストで前記表示装置に表示させてから所定時間が経過すると、前記オーディオ装置を用いて音声で前記一のアイコンの説明を実行させるか、または前記表示装置を用いた動画で前記一のアイコンの説明を実行させる制御部として、
機能させるプログラム。
A processor of an information processing apparatus that includes a display device capable of displaying a plurality of icons, an operation device for a user to input instructions, and an audio device that emits sound, and that can execute a plurality of applications,
When a predetermined time elapses after the description of one of the plurality of icons is displayed as text on the display device, the description of the one icon is executed by voice using the audio device, or the display As a control unit for executing the explanation of the one icon with a video using the device,
A program to function.
前記音声または前記動画を用いた前記一のアイコンの説明は、第1の説明と第2の説明とを含み、
前記制御部は、
前記第1の説明を実行させた後に、前記利用者が前記操作装置を用いて前記第2の説明の実行を指示した場合、前記第2の説明を実行させる、
請求項1に記載のプログラム。
The description of the one icon using the sound or the moving image includes a first description and a second description.
The controller is
After the first explanation is executed, if the user instructs the execution of the second explanation using the operation device, the second explanation is executed.
The program according to claim 1.
前記制御部は、前記音声または前記動画を用いた前記一のアイコンの説明の時間を、前記利用者が前記操作装置を用いて入力した過去の指示に基づいて変化させる、請求項1または2に記載のプログラム。   The said control part changes the time of description of the said one icon using the said audio | voice or the said moving image based on the past instruction | indication which the said user input using the said operating device. The listed program. 前記制御部は、前記音声または前記動画を用いた前記一のアイコンの説明の速度を、前記利用者が前記操作装置を用いて入力した過去の指示に基づいて変化させる、請求項1または2に記載のプログラム。   The said control part changes the speed of description of the said one icon using the said audio | voice or the said moving image based on the past instruction | indication which the said user input using the said operating device. The listed program. 前記利用者が前記操作装置を用いて入力した過去の指示は、前記複数のアプリケーションの使用履歴であることを特徴とする請求項3または4に記載のプログラム。   The program according to claim 3 or 4, wherein the past instruction input by the user using the operation device is a use history of the plurality of applications. 前記利用者が前記操作装置を用いて入力した過去の指示は、前記一のアイコンが前記表示装置に表示されている状態で次のアイコンを表示させる前記利用者の指示であり、
前記制御部は、前記一のアイコンを前記表示装置に表示させてから前記次のアイコンを表示させる前記利用者の指示が入力されるまでの時間に応じて、前記音声または前記動画を用いた前記一のアイコンの説明を変化させる、
ことを特徴とする請求項3または4に記載のプログラム。
The past instruction input by the user using the operation device is an instruction of the user to display the next icon in a state where the one icon is displayed on the display device,
The control unit uses the voice or the moving image depending on a time from when the one icon is displayed on the display device until an instruction of the user to display the next icon is input. Change the description of one icon,
The program according to claim 3 or 4, characterized by the above.
前記利用者が前記操作装置を用いて入力した過去の指示は、前記一のアイコンの説明を再び実行させる前記利用者の指示であり、
前記制御部は、前記一のアイコンの説明を再び実行させる前記利用者の指示の回数に応じて、前記音声または前記動画を用いた前記一のアイコンの説明を変化させる、
ことを特徴とする請求項3または4に記載のプログラム。
The past instruction input by the user using the operation device is an instruction of the user that causes the explanation of the one icon to be executed again,
The control unit changes the description of the one icon using the voice or the moving image according to the number of instructions of the user that causes the description of the one icon to be executed again.
The program according to claim 3 or 4, characterized by the above.
前記制御部は、前記利用者の属性に応じて、前記音声または前記動画を用いた説明の時間を変化させることを特徴とする請求項1または2に記載のプログラム。   The program according to claim 1, wherein the control unit changes a description time using the voice or the moving image according to the attribute of the user. 前記制御部は、前記音声または前記動画を用いた説明に使用履歴を反映させることを特徴とする請求項1乃至8のうちいずれか1項に記載のプログラム。   The program according to any one of claims 1 to 8, wherein the control unit reflects a use history in the description using the voice or the moving image. 複数のアイコンを表示可能な表示装置、利用者が指示を入力するための操作装置、および音を放音するオーディオ装置を備え、複数のアプリケーションを実行可能な情報処理装置の制御方法であって、
前記複数のアイコンのうち一のアイコンの説明をテキストで前記表示装置に表示させてから所定時間が経過したことを検知し、
前記オーディオ装置を用いて音声で前記一のアイコンの説明を実行させるか、または前記表示装置に動画で前記一のアイコンの説明を実行させる、
情報処理装置の制御方法。
A display device capable of displaying a plurality of icons, an operation device for a user to input instructions, and an audio device that emits sound, and a control method for an information processing device capable of executing a plurality of applications,
Detecting that a predetermined time has elapsed since the description of one of the plurality of icons is displayed as text on the display device;
Causing the audio device to execute the description of the one icon by voice, or causing the display device to execute the description of the one icon by moving image;
A method for controlling an information processing apparatus.
JP2017151020A 2017-08-03 2017-08-03 Program and information processing device control method Active JP6912043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017151020A JP6912043B2 (en) 2017-08-03 2017-08-03 Program and information processing device control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017151020A JP6912043B2 (en) 2017-08-03 2017-08-03 Program and information processing device control method

Publications (2)

Publication Number Publication Date
JP2019028945A true JP2019028945A (en) 2019-02-21
JP6912043B2 JP6912043B2 (en) 2021-07-28

Family

ID=65476280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017151020A Active JP6912043B2 (en) 2017-08-03 2017-08-03 Program and information processing device control method

Country Status (1)

Country Link
JP (1) JP6912043B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137647A (en) * 1994-11-07 1996-05-31 Fujitsu Ltd Method and device for reproducing operation guide information reproduction, method and device for reproducing multimedia information
JPH11272166A (en) * 1998-03-25 1999-10-08 Denso Corp Information processor
JP2004013736A (en) * 2002-06-10 2004-01-15 Ricoh Co Ltd Operation display device
JP2005053331A (en) * 2003-08-04 2005-03-03 Nissan Motor Co Ltd Information presenting device for vehicular instrument
JP2011227540A (en) * 2010-04-15 2011-11-10 Sharp Corp Display device
JP2012174023A (en) * 2011-02-22 2012-09-10 Sharp Corp Portable terminal device
JP2013220618A (en) * 2012-04-18 2013-10-28 Mitsubishi Electric Corp Self-print terminal
JP2014137825A (en) * 2013-01-18 2014-07-28 Samsung Electronics Co Ltd Method and electronic device for providing guide

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137647A (en) * 1994-11-07 1996-05-31 Fujitsu Ltd Method and device for reproducing operation guide information reproduction, method and device for reproducing multimedia information
JPH11272166A (en) * 1998-03-25 1999-10-08 Denso Corp Information processor
JP2004013736A (en) * 2002-06-10 2004-01-15 Ricoh Co Ltd Operation display device
JP2005053331A (en) * 2003-08-04 2005-03-03 Nissan Motor Co Ltd Information presenting device for vehicular instrument
JP2011227540A (en) * 2010-04-15 2011-11-10 Sharp Corp Display device
JP2012174023A (en) * 2011-02-22 2012-09-10 Sharp Corp Portable terminal device
JP2013220618A (en) * 2012-04-18 2013-10-28 Mitsubishi Electric Corp Self-print terminal
JP2014137825A (en) * 2013-01-18 2014-07-28 Samsung Electronics Co Ltd Method and electronic device for providing guide

Also Published As

Publication number Publication date
JP6912043B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
US9699638B2 (en) Apparatus and method for providing integrated device information
KR102301880B1 (en) Electronic apparatus and method for spoken dialog thereof
KR101633824B1 (en) Method for setting background screen and mobile terminal using the same
TWI522917B (en) Method and device for controlling start-up of applicantion and computer-readable storage medium
KR20070088029A (en) Method and apparatus for offering user interface in a mobile station
EP3376797A1 (en) Method for searching for network and terminal
US20200288007A1 (en) Method and apparatus for storing telephone numbers in a portable terminal
US20170160921A1 (en) Media file processing method and terminal
KR20160050697A (en) Display, controlling method thereof and display system
JP2020042745A (en) Electronic device, control method thereof, and program thereof
KR101943430B1 (en) User Device, Driving Method of User Device, Apparatus for Providing Service and Driving Method of Apparatus for Providing Service
US9693215B2 (en) Electronic apparatus and wireless device checking method
US10057756B2 (en) Terminal detection method and communication device
JP6912043B2 (en) Program and information processing device control method
JP7034178B2 (en) Electronic devices and display control methods
US9544415B2 (en) Mobile electronic device, position checking method, position checking program, and position checking system
KR102138615B1 (en) Apparatus and method for providing merged device information
JP2012221108A (en) Information processing device, information processing method, program, history management server, history management method and information processing system
JP2019144836A (en) Audio output device, program, and program recording medium
JP6780830B2 (en) Program and information processing device control method
JP6907445B2 (en) Program and information processing device control method
JPWO2020105317A1 (en) Dialogue device and dialogue program
JP2006303831A (en) Peripheral-area information providing system and its device
CN108833715A (en) A kind of method, device and mobile terminal reading text information
JP2020022043A (en) Broadcast control device, broadcast control method, and broadcast control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R150 Certificate of patent or registration of utility model

Ref document number: 6912043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150