JP2005099418A - Object display device and program - Google Patents

Object display device and program Download PDF

Info

Publication number
JP2005099418A
JP2005099418A JP2003332962A JP2003332962A JP2005099418A JP 2005099418 A JP2005099418 A JP 2005099418A JP 2003332962 A JP2003332962 A JP 2003332962A JP 2003332962 A JP2003332962 A JP 2003332962A JP 2005099418 A JP2005099418 A JP 2005099418A
Authority
JP
Japan
Prior art keywords
sound
attribute
types
display device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003332962A
Other languages
Japanese (ja)
Inventor
Keiji Yokota
恵司 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003332962A priority Critical patent/JP2005099418A/en
Publication of JP2005099418A publication Critical patent/JP2005099418A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To permit the display of an object having a plurality of meanings by diversely analyzing input sound, when the object is displayed in response to the input sound. <P>SOLUTION: A CPU 1 calculates an attribute value corresponding to each of a plurality of attribute kinds, by analyzing the sound inputted from an acoustic sensor 7, determines the display form corresponding to each of the plurality of attribute kinds regarding the display of the object, referring to an acoustic kind management table and an attribute display management table, on the basis of the values of the plurality of attribute kinds, and performs the display of the object for each attribute. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、入力音に応答してオブジェクト表示を行うオブジェクト表示装置およびプログラムに関する。   The present invention relates to an object display device and a program for displaying an object in response to an input sound.

従来、入力音に応答して画像表示を行うものとしては、例えば、着信音の種類や音階に基づいて画像の色彩を可変するようにした電話機が知られている(特許文献1参照)。
また、所定の入力音を認識することによって対応する画像マークを表示することで、ユーザの音の認識を助けるようにした情報処理装置が知られている(特許文献2参照)。
特開2001−237922号公報 特開平10−171626号公報
Conventionally, as a device that displays an image in response to an input sound, for example, a telephone that changes the color of an image based on the type and scale of a ringtone is known (see Patent Document 1).
In addition, an information processing apparatus is known that assists in recognizing a user's sound by displaying a corresponding image mark by recognizing a predetermined input sound (see Patent Document 2).
JP 2001-237922 A JP-A-10-171626

しかしながら、上述した特許文献1の電話機にあっては、例えば、相手先毎に、着信音の種類や音階が異なるように設定しておけば、着信時の表示される画像の色彩によって相手先が誰かを容易に確認することはできるが、表示を媒体として使用者に伝えることができる情報は、相手先の確認に限られてしまい、更には、画像の色彩変化だけでは使用者への伝達力(注意喚起力)も弱く、誤認混同のおそれもあった。
また、上述した特許文献2の情報処理装置にあっても上述した特許文献1の場合と同様、表示を媒体として使用者に伝えることができる情報は、極限られたものとなり、聴覚障害者に対する補助機能としては不充分なものであった。
However, in the above-described telephone set of Patent Document 1, for example, if the type of the ringtone and the scale are set to be different for each destination, the destination can be determined depending on the color of the image displayed at the time of the incoming call. Someone can be easily confirmed, but the information that can be transmitted to the user using the display as a medium is limited to the confirmation of the other party, and moreover, only the color change of the image can be transmitted to the user. (Warning-awareness) was weak and there was a risk of misunderstanding.
In addition, even in the information processing apparatus of Patent Document 2 described above, as in the case of Patent Document 1 described above, the information that can be transmitted to the user using the display as a medium is limited and assists the hearing impaired person. The function was insufficient.

この発明の課題は、入力音に応答してオブジェクト表示を行う場合に、入力音を多角的に解析することによって複数の意味を持ったオブジェクトを表示できるようにすることである。   An object of the present invention is to display an object having a plurality of meanings by analyzing the input sound from various angles when performing object display in response to the input sound.

請求項1記載の発明は、入力音に応答してオブジェクト表示を行うオブジェクト表示装置において、音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を記憶管理する属性対応情報記憶手段と、入力音を解析することによって複数種の属性の各々に対応する属性値を算出する算出手段と、この算出手段によって算出された複数種の属性値と前記属性対応情報とに基づいてオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定する決定手段と、この決定手段によって決定された属性毎の表示形態でオブジェクト表示を行う表示制御手段とを具備したことを特徴とするオブジェクト表示装置である。
更に、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項11記載の発明)。
According to the first aspect of the present invention, in an object display device that displays an object in response to an input sound, attribute correspondence information that stores and manages attribute correspondence information that associates multiple types of attributes related to sound with multiple types of attributes related to objects Based on information storage means, calculation means for calculating an attribute value corresponding to each of a plurality of types of attributes by analyzing an input sound, and a plurality of types of attribute values calculated by the calculation means and the attribute correspondence information And determining means for determining a display form corresponding to each of a plurality of types of attributes relating to object display, and display control means for displaying an object in a display form for each attribute determined by the determining means, It is an object display device.
Furthermore, a program for realizing the main functions shown in the invention described in claim 1 is provided to the computer (the invention described in claim 11).

なお、請求項1記載の発明は次のようなものであってもよい。
前記音に関する複数種の属性は、音の種類、音の強弱、高低、長短、音源の方向、音源との距離、緊急度のうち、少なくとも、その何れかを含む情報である(請求項2記載の発明)。
The invention described in claim 1 may be as follows.
The plurality of types of attributes relating to the sound is information including at least one of the type of sound, the strength of the sound, the height, the length, the length of the sound, the direction of the sound source, the distance from the sound source, and the urgency level. Invention).

前記オブジェクトに関する複数種の属性は、オブジェクトの種類、形状、表示位置、サイズ、色合い、色の濃さ、透過度、点滅速度、動作変化のうち、少なくとも、その何れかを含む情報である(請求項3記載の発明)。   The plurality of types of attributes related to the object is information including at least one of the type, shape, display position, size, hue, color density, transparency, blinking speed, and operation change of the object (claim). Item 3).

前記属性対応情報は、少なくとも、音の種別をオブジェクトの種類またはその形状に対応させた情報である(請求項4記載の発明)。   The attribute correspondence information is information that associates at least the type of sound with the type of object or the shape of the object (the invention according to claim 4).

前記属性対応情報は、少なくとも、音の強弱/高低/長短をオブジェクトのサイズ/色/透過度/点滅速度/動作変化に対応させた情報である(請求項5記載の発明)。   The attribute correspondence information is information in which at least sound intensity / high / low / long / short is associated with object size / color / transparency / flashing speed / motion change (invention according to claim 5).

前記音に関する複数の属性は、音源との距離あるいは音源の方向に関する情報を含み、前記算出手段は、複数のマイクロフォンからの入力音を解析することによって音源との距離あるいは音源の方向を含む複数種の属性値を算出する(請求項6記載の発明)。  The plurality of attributes relating to the sound includes information on a distance to the sound source or a direction of the sound source, and the calculation means analyzes a plurality of types including the distance to the sound source or the direction of the sound source by analyzing the input sound from the plurality of microphones. The attribute value is calculated (the invention according to claim 6).

前記属性対応情報は、少なくとも、音源の方向あるいは音源との距離をオブジェクトの位置またはそのサイズに対応させた情報である(請求項7記載の発明)。   The attribute correspondence information is information in which at least the direction of the sound source or the distance to the sound source is made to correspond to the position of the object or its size.

前記音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を任意に登録する登録手段を設け、前記取得手段は、この登録手段によって登録された属性対応情報を取得する(請求項8記載の発明)。   There is provided registration means for arbitrarily registering attribute correspondence information in which a plurality of kinds of attributes relating to the sound and a plurality of kinds of attributes relating to the object are associated, and the acquisition means acquires the attribute correspondence information registered by the registration means (Invention of Claim 8).

入力された音波形をサンプリングしてその特徴を抽出することによって得られた特徴データと、その種別を示す属性とを対応付けて任意に登録する登録手段を設け、入力音を解析することによって得られた特徴データと前記登録されている種別毎の特徴データとを照合することによって当該入力音の種別を判定する(請求項9記載の発明)。
この場合、入力音を解析した際に、特徴データに一致する音が検出された場合には、報知用のバイブレーション機能を作動させるようにしてもよい(請求項10記載の発明)。
また、バイブレーション機能を作動させる際に、緊急度に応じた強度または振動数でバイブレーション報知を行わせるようにしてもよい(請求項11記載の発明)。
It is obtained by analyzing the input sound by providing registration means for arbitrarily registering the characteristic data obtained by sampling the input sound waveform and extracting the characteristic and the attribute indicating the type. The type of the input sound is determined by comparing the registered feature data with the registered feature data for each type (the invention according to claim 9).
In this case, when a sound that matches the feature data is detected when the input sound is analyzed, a notification vibration function may be activated (the invention according to claim 10).
Further, when the vibration function is activated, the vibration notification may be performed with the strength or the frequency according to the degree of urgency (the invention according to claim 11).

請求項1記載の発明によれば、音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を記憶管理している状態において、入力された音を解析することによって複数種の属性の各々に対応する属性値を算出し、この複数種の属性値と属性対応情報とに基づいてオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定し、この属性毎の表示形態でオブジェクト表示を行うようにしたから、入力音を多角的に解析することによって複数の意味を持ったオブジェクトを表示することができ、例えば、聴覚障害者に対する補助機能として活用した場合には、1つの入力音から周囲のあらゆる状況を多義的に案内表示することができ、危険回避等にに極めて有効なものとなる。   According to the first aspect of the present invention, in a state where attribute correspondence information in which a plurality of types of attributes related to sound and a plurality of types of attributes related to objects are associated and stored is managed, An attribute value corresponding to each of the types of attributes is calculated, a display form corresponding to each of the plurality of types of attributes relating to the object display is determined based on the plurality of types of attribute values and the attribute correspondence information. Since the object is displayed in the display form, it is possible to display objects with multiple meanings by analyzing the input sound from multiple perspectives. For example, when used as an auxiliary function for the hearing impaired It is possible to display various surrounding situations from a single input sound in an ambiguous manner, which is extremely effective in avoiding danger.

請求項2記載の発明によれば、上述した請求項2記載の発明と同様の効果を有する他、音に関する複数種の属性は、音の種類、音の強弱、高低、長短、音源の方向、音源との距離、緊急度のうち、少なくとも、その何れかを含む情報であるから、この複数種の属性に基づいて入力音を属性毎に多角的に解析することができる。   According to the invention described in claim 2, in addition to having the same effect as that of the invention described in claim 2 above, the plurality of attributes relating to the sound are the type of sound, the strength of the sound, the height, the length, the length, the direction of the sound source, Since the information includes at least one of the distance to the sound source and the degree of urgency, the input sound can be analyzed in a multifaceted manner for each attribute based on the plurality of types of attributes.

請求項3記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オブジェクトに関する複数種の属性は、オブジェクトの種類、形状、表示位置、サイズ、色合い、色の濃さ、透過度、点滅速度、動作変化のうち、少なくとも、その何れかを含む情報であるから、この複数種の属性に基づいて多義的なオブジェクトを表示することができる。   According to the invention described in claim 3, in addition to the same effect as that of the invention described in claim 1 above, the plurality of types of attributes relating to the object include the object type, shape, display position, size, hue, and color density. Since the information includes at least one of the transparency, the blinking speed, and the operation change, an ambiguous object can be displayed based on the plurality of types of attributes.

請求項4記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、属性対応情報は、少なくとも、音の種別をオブジェクトの種類またはその形状に対応させた情報であるから、利用者は、音とオブジェクトとの対応関係を直感的に判断することができる。   According to the invention described in claim 4, in addition to having the same effect as the invention described in claim 1, the attribute correspondence information is information in which at least the type of sound corresponds to the type of object or its shape. Thus, the user can intuitively determine the correspondence between the sound and the object.

請求項5記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、属性対応情報は、少なくとも、音の強弱/高低/長短をオブジェクトのサイズ/色/透過度/点滅速度/動作変化に対応させた情報であるから、利用者は、音とオブジェクトとの対応関係を直感的に判断することができる。   According to the fifth aspect of the present invention, in addition to the same effect as the first aspect of the present invention, the attribute correspondence information includes at least the sound intensity / high / low / long / short as the object size / color / transparency / Since the information corresponds to the blinking speed / motion change, the user can intuitively determine the correspondence between the sound and the object.

請求項6記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、複数のマイクロフォンからの入力音を解析することによって音源との距離あるいは音源の方向を含む複数種の属性値を算出するようにしたから、音源との距離あるいは音源の方向を示すオブジェクト表示が可能となる。なお、音源との距離あるいは音源の方向は、複数のマイクロフォンからの入力音の位相差や音量差を解析することによって求められる。   According to the sixth aspect of the present invention, in addition to the same effect as the first aspect of the present invention, a plurality of types including the distance to the sound source or the direction of the sound source by analyzing the input sound from the plurality of microphones. Since the attribute value is calculated, it is possible to display an object indicating the distance to the sound source or the direction of the sound source. The distance to the sound source or the direction of the sound source can be obtained by analyzing the phase difference and volume difference of input sounds from a plurality of microphones.

請求項7記載の発明によれば、上述した請求項1、7記載の発明と同様の効果を有する他、属性対応情報は、少なくとも、音源の方向あるいは音源との距離をオブジェクトの位置またはサイズに対応させた情報であるから、利用者は、音源の方向あるいは音源との距離をオブジェクト表示によって直感的に判断することができる。   According to the seventh aspect of the invention, in addition to the same effects as the first and seventh aspects of the invention, the attribute correspondence information includes at least the direction of the sound source or the distance from the sound source as the position or size of the object. Since the information is associated, the user can intuitively determine the direction of the sound source or the distance from the sound source by object display.

請求項8記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を任意に登録するようにしたから、利用者の好みや必要性に応じた入力音とオブジェクト表示との対応関係を任意に変更することができる。   According to the eighth aspect of the invention, in addition to the same effect as the first aspect of the invention described above, the attribute correspondence information in which a plurality of types of attributes related to sound and a plurality of types of attributes related to objects are associated is arbitrarily set. Since registration is performed, the correspondence between the input sound and the object display can be arbitrarily changed according to the preference and necessity of the user.

請求項9記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、音の種別に対応してその音の特徴データを任意に登録するようにしたから、例えば、自分を呼ぶ声など、音の種別を利用者の好みや必要性に応じて任意に登録することができる。この場合、入力音を解析した際に、特徴データに一致する音が検出された場合に報知用のバイブレーション機能を作動させるようにすれば(請求項10記載の発明)、オブジェクト表示の他、バイブレーション報知が可能となり、確実な報知を実現することができる。また、バイブレーション機能を作動させる際に、緊急度に応じた強度または振動数でバイブレーション報知を行わせるようにすれば(請求項11記載の発明)、バイブレーション報知によっても緊急度合いを容易に知ることができる。   According to the ninth aspect of the invention, in addition to having the same effect as that of the first aspect of the invention described above, the feature data of the sound is arbitrarily registered corresponding to the type of sound. The type of sound, such as a voice that calls you, can be arbitrarily registered according to the user's preferences and needs. In this case, when the input sound is analyzed, if a sound that matches the feature data is detected, the vibration function for notification is activated (the invention according to claim 10). Notification is possible, and reliable notification can be realized. Further, when the vibration function is activated, if the vibration notification is performed with the intensity or the frequency according to the urgency level (the invention according to claim 11), the urgency level can be easily known by the vibration notification. it can.

以下、図1〜図9を参照して本発明の一実施例を説明する。
図1は、この実施例における聴覚障害者用携帯装置の全体構成の概要を示したブロック図である。
この携帯装置は、聴覚障害者に対する補助機能として、入力音に応答してオブジェクト表示を行うオブジェクト表示機能を有するもので、入力音を多角的に解析することによって複数の意味を持ったオブジェクトを表示することで、1つの入力音から周囲のあらゆる状況を多義的に案内可能としたものであり、携帯電話やPDA等に当該機能を組み込んだ構成となっている。すなわち、この聴覚障害者用携帯装置は、入力された音を解析することによって音に関する複数種の属性の各々に対応する属性値をそれぞれ算出し、この複数種の属性値に基づいてオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定し、この属性毎の表示形態でオブジェクト表示を行うようにしたものである。
なお、この実施例の特徴部分を詳述する前に、この実施例のハードウェア上の構成について以下、説明しておく。
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram showing an outline of the overall configuration of the portable device for the hearing impaired in this embodiment.
This portable device has an object display function that displays objects in response to input sound as an auxiliary function for the hearing impaired, and displays objects with multiple meanings by analyzing the input sound from multiple perspectives. By doing so, various surrounding situations can be guided in an ambiguous manner from a single input sound, and the function is incorporated into a mobile phone, a PDA, or the like. That is, the portable device for the hearing impaired person calculates an attribute value corresponding to each of a plurality of types of attributes related to sound by analyzing the input sound, and relates to object display based on the plurality of types of attribute values. A display form corresponding to each of a plurality of types of attributes is determined, and object display is performed in a display form for each attribute.
Before detailed description of the features of this embodiment, the hardware configuration of this embodiment will be described below.

図1は、聴覚障害者用携帯装置の基本的構成要素を示したブロック図である。
CPU1は、記憶装置2内のオペレーティングシステムや各種アプリケーションソフトにしたがってこの聴覚障害者用携帯装置の全体動作を制御する中央演算処理装置である。記憶装置2は、プログラム記憶領域21とデータ記憶領域22とを有し、磁気的/光学的メモリや半導体メモリ等の他、その駆動系を有する構成となっている。このプログラム記憶領域21には、後述する図5〜図7に示す動作手順にしたがって本実施例を実現する為のアプリケーションプログラム(各種の管理テーブル登録処理、オブジェクト表示処理)が格納され、また、データ記憶領域には、後述する図3および図4に示すデータ(各種の管理テーブル)が格納されている。なお、記録装置2は、ハードディスク等の固定的なメモリの他、CD−ROM、DVD等の着脱自在な記憶媒体であってもよい。この記憶装置2内のプログラムやデータは、必要に応じてRAM(例えば、スタティックRAM)3にロードされたり、このRAM3内のデータが記憶装置2内にセーブされる。なお、RAM3は、プログラム実行領域31と作業領域32とを有している。
FIG. 1 is a block diagram showing basic components of a portable device for the hearing impaired.
The CPU 1 is a central processing unit that controls the overall operation of the portable device for the hearing impaired in accordance with an operating system and various application software in the storage device 2. The storage device 2 has a program storage area 21 and a data storage area 22, and has a drive system in addition to a magnetic / optical memory and a semiconductor memory. The program storage area 21 stores application programs (various management table registration processing and object display processing) for realizing the present embodiment in accordance with the operation procedure shown in FIGS. The storage area stores data (various management tables) shown in FIGS. 3 and 4 to be described later. The recording device 2 may be a detachable storage medium such as a CD-ROM or DVD in addition to a fixed memory such as a hard disk. Programs and data in the storage device 2 are loaded into a RAM (for example, a static RAM) 3 as needed, or data in the RAM 3 is saved in the storage device 2. The RAM 3 has a program execution area 31 and a work area 32.

更に、CPU1は、通信装置4を介して他の電子機器側のプログラム/データを直接アクセスしたり、通信装置4を介してダウンロード受信することもできる。一方、CPU1には、その入出力周辺デバイスである通信装置4、入力装置5、表示装置6、音響センサ7、振動モータ8がバスラインを介して接続されており、入出力プログラムにしたがってCPU1は、これらの入出力デバイスの動作制御を行う。   Further, the CPU 1 can directly access a program / data on the other electronic device side via the communication device 4 or can download and receive the program / data via the communication device 4. On the other hand, the communication device 4, the input device 5, the display device 6, the acoustic sensor 7, and the vibration motor 8, which are input / output peripheral devices, are connected to the CPU 1 via a bus line. The operation control of these input / output devices is performed.

音響センサ7は、図2に示すように、聴覚障害者用携帯装置の裏面側に配置された複数(3個)のマイクロフォン71によって構成されたもので、音源との距離や音源の方向を検知する為に、3つのマイクロフォン71は、距離的にずらして設置されている。この場合、入力音の位相差や音量差を加味して音源との距離や音源の方向を検知するようにしている。振動モータ8は、報知用のバイブレーション機能を構成するものであり、その強度や振動数を可変できるようになっている。   As shown in FIG. 2, the acoustic sensor 7 is composed of a plurality of (three) microphones 71 arranged on the back side of the portable device for the hearing impaired person, and detects the distance to the sound source and the direction of the sound source. In order to do so, the three microphones 71 are installed at a distance. In this case, the distance from the sound source and the direction of the sound source are detected in consideration of the phase difference and volume difference of the input sound. The vibration motor 8 constitutes a notification vibration function, and its strength and frequency can be varied.

図3は、音響種別管理テーブル11の内容を示した図である。
この音響種別管理テーブル11は、音の種別とオブジェクト形状とを対応させた属性対応情報を記憶管理すると共に、音の種別に対応してその緊急度(重要度)を記憶管理するものである。すなわち、音響種別管理テーブル11は、音の種類毎に、「識別名称」、「音の特徴データ」、「オブジェクト形状」、「緊急度(重要度)」の各項目を有し、これらは必要に応じて利用者が任意に登録したものである。つまり、聴覚障害者である利用者は、音の種類毎に好みに合ったオブジェクト表示が行われるように、音の種別とオブジェクト形状との対応関係を示す属性対応情報を任意に登録することができる他、音の種類毎にその緊急度(重要度)が視覚的に認知可能となるように、緊急度(重要度)を任意に登録することができる。
FIG. 3 is a diagram showing the contents of the acoustic type management table 11.
The acoustic type management table 11 stores and manages attribute correspondence information in which a sound type and an object shape are associated with each other, and stores and manages an urgency level (importance level) corresponding to a sound type. That is, the acoustic type management table 11 has items of “identification name”, “sound feature data”, “object shape”, and “emergency (importance)” for each type of sound, which are necessary. Depending on the user, the user arbitrarily registers it. In other words, a user who is a hearing-impaired person can arbitrarily register attribute correspondence information indicating a correspondence relationship between a sound type and an object shape so that an object display suitable for each type of sound is performed. In addition, the urgency level (importance level) can be arbitrarily registered so that the urgency level (importance level) can be visually recognized for each type of sound.

「識別名称」は、音の種別を識別する為の名称であり、図示の例では、「車」、「電車」、「踏み切り遮断機」、「警笛」、「サイレン」、「やかんの沸騰」、「危険の知らせ声」、「挨拶の声」、「自分を呼ぶ声」、‥‥が音の種類として登録されている場合を示している。
「音の特徴データ」は、予め入力された音波形をサンプリングしてその特徴を抽出することによって得られた特徴データを集録したものである。すなわち、この実施例では、音響スペクトラム手法に基づいて得られた時空間分布情報の中から特徴データを抽出したもので、自分が必要とする種類の音の特徴部分のみをサンプル集録したものである。ここで、図示の例では、「識別名称」が「車」の場合には、「車の走行音の特徴データ」が登録され、「電車」の場合には、「電車の走行音の特徴データ」、「踏み切り遮断機」の場合には、「遮断機の音の特徴データ」、‥‥、「危険の知らせ声」の場合には、「“あぶない”の発声の特徴データ」、「挨拶の声」の場合には、「“こんにちは”の発声の特徴データ」、「自分を呼ぶ声」の場合には、「山田○○の発声の特徴データ」、‥‥が登録されている場合を示している。
“Identification name” is a name for identifying the type of sound. In the example shown in the figure, “car”, “train”, “crossing barrier”, “warf”, “siren”, “bottle of kettle” , “Danger Voice”, “Greeting Voice”, “Voice Calling Me”,... Are registered as sound types.
“Sound feature data” is a collection of feature data obtained by sampling a sound waveform input in advance and extracting the feature. That is, in this embodiment, feature data is extracted from the spatio-temporal distribution information obtained based on the acoustic spectrum method, and only the feature portion of the kind of sound that is required is sampled and acquired. . Here, in the example shown in the figure, when “identification name” is “car”, “feature data of driving sound of car” is registered, and when “train”, “feature data of driving sound of train” is registered. "In case of" crossing breaker "," characteristic data of sound of circuit breaker ", ..., in case of" notice of danger "," characteristic data of utterance of "absurd""," greeting in the case of voice "is,""Hello" characteristic data of the utterance of ", in the case of" voice calling me "shows a case where" Yamada ○○ characteristic data of the utterance of ", ‥‥ are registered ing.

「オブジェクト形状」は、オブジェクトの種類(形状)を示すもので、図示の例では、上述した音の種別を示す各「識別名称」に対応して、「車の画像データ」、「電車の画像データ」、「遮断機の画像データ」、「警笛を示す画像データ」、「サイレンを示す画像データ」、「やかんの画像データ」、「“あぶない”の文字データ」、「“こんにちは”の文字データ」、「“山田○○”の文字データ」、‥‥登録されている場合を示している。   “Object shape” indicates the type (shape) of the object. In the example shown in the figure, “car image data” and “train image” correspond to each “identification name” indicating the type of sound described above. data ", image data", and the image data indicating the "horn of the" circuit breaker "," image data representing the siren ", character data of the" kettle of image data "," character data of the "dangerous" "," "Hello" ”,“ Character data of “Yamada XX” ”,...

「緊急度(重要度)」は、音の緊急度合い(重要度合い)を判定するためのデータで、図示の例では、音の種別が“車”の場合には「接近方向に移動中かつ距離が50m程度で中度の危険」、音の種別が“警笛”の場合には「距離が50m程度かつ音量が54db程度で中度の危険」、音の種別が“挨拶の声”および“自分を呼ぶ声”の場合には「緊急性なし」となっている。なお、図示省略したが、「緊急度(重要度)」は、音の種別毎に複数登録可能であり、音の種別が“車”、“電車”、“遮断機”、“警笛”、“サイレン”、“やかん”、“危険の知らせ声”等の場合には、上述した“中度”の他に、例えば、“高度”なども登録することができる。   “Emergency (importance)” is data for determining the degree of urgency (importance) of sound. In the example shown in the figure, when the type of sound is “car”, “moving in the approach direction and distance” Is about 50m and is moderately dangerous, and when the type of sound is "Whistle", "Distance is about 50m and volume is about 54db, and it is moderately dangerous", and the type of sound is "greeting voice" and "self "Voice calling" is "No urgency". Although not shown, a plurality of “emergency levels (importance levels)” can be registered for each sound type, and the sound types are “car”, “train”, “breaker”, “warning”, “ In the case of “Siren”, “Kettle”, “Danger notification”, etc., for example, “Altitude” can be registered in addition to “Medium” described above.

図4は、属性表示管理テーブル12の内容を示した図である。
この属性表示管理テーブル12は、音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を記憶管理すると共に、各オブジェクト属性毎に、その表示形態(状態)を記憶管理するもので、「音に関する属性」、「オブジェクトに関する属性」、「オブジェクト表示形態(状態)」の各項目が対応付けられている。
この属性表示管理テーブル12の内容は、予めデフォルト設定されたものであるが、利用者が任意にその内容を変更することもできるようになっている。すなわち、デフォルト設定されている複数種の音に関する属性に対応付けられているオブジェクト属性を任意に変更したり、その表示形態を変更することが可能となっている。
FIG. 4 is a diagram showing the contents of the attribute display management table 12.
The attribute display management table 12 stores and manages attribute correspondence information in which a plurality of attributes related to sound and a plurality of attributes related to objects are associated with each other, and stores and manages the display form (state) for each object attribute. Each item of “attribute relating to sound”, “attribute relating to object”, and “object display form (state)” is associated with each other.
The contents of the attribute display management table 12 are preset by default, but the user can arbitrarily change the contents. That is, it is possible to arbitrarily change the object attribute associated with the attributes relating to the plurality of types of sounds set as default, and to change the display form.

ここで、複数種の「音に関する属性」として、図示の例では、「音の種別」、「音量」、「音の高さ(音程)」、「音源との距離」、「音源の方向」、「緊急度」、‥‥がそれぞれデフォルト設定されている。また、「オブジェクトに関する属性」として、図示の例では、音属性が「音の種別」の場合にはオブジェクトの「形状」がデフォルト設定され、また、「音量」の場合には「色の濃さ」がデフォルト設定され、「音の高さ」の場合には「色合い」、「音源との距離」の場合には「大きさ(サイズ)」、「音源の方向」の場合には「表示位置」、「緊急度」の場合には「点滅速度」、‥‥がデフォルト設定されている。   Here, as the multiple types of “sound attributes”, in the illustrated example, “sound type”, “volume”, “pitch (pitch)”, “distance from the sound source”, “sound source direction” , “Emergency”, and so on are set by default. In addition, as the “attribute related to the object”, in the illustrated example, when the sound attribute is “sound type”, the “shape” of the object is set by default, and when the sound attribute is “volume”, the “color intensity” is set. ”Is set as the default,“ Color ”for“ Pitch ”,“ Size ”for“ Distance from sound source ”,“ Display position ”for“ Direction of sound source ” In the case of “Emergency”, “flashing speed”,... Are set as defaults.

「オブジェクト表示形態(状態)」として、図示の例では、音属性が“種別”で、オブジェクト属性が“形状”の場合には、上述した音響種別管理テーブル11の内容で示される「指定形状」がデフォルト設定されている。また、音属性が“音量”で、オブジェクト属性が“色の濃さ”の場合には、「40dbで50%濃度」が設定され、音属性が“音の高さ”がデフォルト設定され、オブジェクト属性が“色合い”の場合には、「1KHzで橙色」がデフォルト設定されている。更に、音属性が“音源との距離”で、オブジェクト属性が“大きさ”の場合には、「5mで2cm」が設定され、音属性が“音源の方向”で、オブジェクト属性が“表示位置”の場合には、「センタ方向で表示画面のセンタ位置」が設定され、音属性が“緊急度”で、オブジェクト属性が“点滅速度”の場合には、「中度の危険で毎秒2回の点滅」が設定されている。なお、図示省略したが、「オブジェクト表示形態(状態)」は、音の属性値に応じて複数設定可能であり、そのデフォルト設定値も任意に変更可能となっている。   As the “object display form (state)”, in the illustrated example, when the sound attribute is “type” and the object attribute is “shape”, the “designated shape” indicated by the contents of the acoustic type management table 11 described above. Is the default setting. When the sound attribute is “volume” and the object attribute is “color density”, “50% density at 40 db” is set, and “sound pitch” is set as the default sound attribute. When the attribute is “color tone”, “orange at 1 KHz” is set as a default. Furthermore, when the sound attribute is “distance to the sound source” and the object attribute is “size”, “2 cm at 5 m” is set, the sound attribute is “direction of the sound source”, and the object attribute is “display position”. "If the center position of the display screen in the center direction" is set, the sound attribute is "Urgent", and the object attribute is "Flashing speed", it is "Moderately dangerous twice per second Blink "is set. Although not shown, a plurality of “object display forms (states)” can be set according to the attribute value of the sound, and the default setting values can be arbitrarily changed.

図5は、この聴覚障害者用携帯装置を所持している利用者に向かって自動車が接近している場合を例示した図である。図6は、この場合におけるオブジェクト表示の具体例を示した図である。
この場合、自動車のオブジェクト画像が表示されていることから自動車が接近していることを知ることができ、また、オブジェクト画像の表示位置(画面左側)から携帯装置を向けている方向に対して自動車が左側から接近していることを知ることができる。更に、その表示サイズから距離が約50mであることを知ることができ、しかも、その表示色や濃さから車種や速度などを推測することもできる。
FIG. 5 is a diagram illustrating a case where an automobile is approaching a user who possesses this portable device for the hearing impaired. FIG. 6 is a diagram showing a specific example of object display in this case.
In this case, since the object image of the automobile is displayed, it can be known that the automobile is approaching, and the automobile is directed from the display position of the object image (left side of the screen) to the direction in which the portable device is directed. Can be seen approaching from the left. Furthermore, it is possible to know that the distance is about 50 m from the display size, and it is also possible to estimate the vehicle type and speed from the display color and density.

次に、この実施例における聴覚障害者用携帯装置の動作概念を図7〜図9に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードにしたがった動作を逐次実行することもできる。すなわち、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施例特有の動作を実行することもできる。   Next, the operation concept of the portable device for the hearing impaired in this embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. It is also possible to sequentially execute operations according to the program code transmitted via the transmission medium. In other words, in addition to the recording medium, the program / data supplied externally via the transmission medium can be used to execute the operation specific to this embodiment.

図7は、音響種別管理テーブル11への登録処理を示したフローチャートであり、CPU1は、この管理テーブルへの登録が指示されると、対話形式で利用者にデータ入力を促す案内表示を行いながら当該テーブル登録処理を実行する。
先ず、CPU1は、音の種別を示す識別名称が入力されると、それを取り込んで音響種別管理テーブル11内に登録する(ステップA1)。そして、この種別のサンプル音の入力を促す案内表示を行う。ここで、例えば、車、電車、踏み切り遮断機、警笛、自分の名前などのサンプル音が音響センサ7から入力されると、CPU1は、音響スペクトラムの時空間分布情報を取得すると共に(ステップA2)、この時空間分布情報を必要に応じて編集加工すると共に、この中から登録対象の音種に関係する特徴部分を抽出し、この特徴データを当該識別名称に対応付けて音響種別管理テーブル11内に登録する(ステップA3)。
FIG. 7 is a flowchart showing registration processing in the acoustic type management table 11. When the CPU 1 is instructed to register in the management table, the CPU 1 displays a guidance display that prompts the user to input data in an interactive manner. The table registration process is executed.
First, when an identification name indicating the type of sound is input, the CPU 1 takes it and registers it in the acoustic type management table 11 (step A1). Then, a guidance display for prompting input of this type of sample sound is performed. Here, for example, when a sample sound such as a car, a train, a railroad crossing breaker, a horn, and one's name is input from the acoustic sensor 7, the CPU 1 acquires time-space distribution information of the acoustic spectrum (step A2). The spatio-temporal distribution information is edited and processed as necessary, and a feature portion related to the tone type to be registered is extracted from the information, and the feature data is associated with the identification name in the acoustic type management table 11. (Step A3).

そして、CPU1は、予め用意されている各種のオブジェクト、例えば、「車、電車、踏み切り遮断機、警笛、サイレン、やかん」等のオブジェクト画像および「あぶない、こんにちは」等の文字列を読み出して一覧表示させると共に、オブジェクト一覧の中から任意のオブジェクトを選択指定すべきことを促す案内表示を行う。ここで、利用者は、このオブジェクト一覧の中に該当するオブジェクトが有れば、その中から任意のオブジェクトを選択指定し、また、自分の名前などのように該当するオブジェクトが無ければ、キー操作によってデータ入力を行う。すると、CPU1は、一覧画面の中から選択されたオブジェクトあるいはキー操作によって入力されたオブジェクトを取り込み、これをオブジェクトの種類(形状)として、当該識別名称に対応付けて音響種別管理テーブル11内に登録する(ステップA4)。  Then, CPU1 is, a variety of objects that are prepared in advance, for example, "car, a train, a railroad crossing breaker, horn, siren, kettle" object images such as and "dangerous, Hello" list is read out a string of such In addition, a guidance display that prompts the user to select and specify an arbitrary object from the object list is displayed. Here, if there is a corresponding object in this object list, the user selects and designates an arbitrary object from among the objects, and if there is no corresponding object such as his own name, the key operation is performed. Input data with. Then, the CPU 1 takes in an object selected from the list screen or an object input by a key operation, and registers it in the acoustic type management table 11 as an object type (shape) in association with the identification name. (Step A4).

更に、緊急度のデータを入力すべきことを促す案内表示を行い、これによって緊急度合いを判定するためのデータが入力されると、この入力データを取り込み、当該識別名称に対応付けて音響種別管理テーブル11内に登録する(ステップA5)。この場合、「中度」、「高度」のように複数のデータを登録する場合には、「中度」、「高度」別に入力されたデータは、当該識別名称に対応付けてそれぞれ音響種別管理テーブル11内に登録される。
なお、この場合、今回登録した識別名称に関連するガイダンス情報として、例えば、「距離が○○mかつ音量が○○dbで中度の危険」のようなガイダンス表示を行い、その空白部である○○への数値入力を促す入力支援を行うようにすれば、データ入力を確実かつ容易に行うことが可能となる。
Furthermore, a guidance display that prompts the user to input urgency data is displayed. When data for determining the urgency level is input, the input data is fetched, and the sound type management is performed in association with the identification name. Register in the table 11 (step A5). In this case, when a plurality of data such as “medium” and “altitude” are registered, the data input for each “medium” and “altitude” is managed in accordance with the identification name. Registered in the table 11.
In this case, as the guidance information related to the identification name registered this time, for example, a guidance display such as “distance is XXm and volume is XXdb and moderate danger” is a blank part. By providing input support for prompting numerical input to ○○, it becomes possible to input data reliably and easily.

図8は、属性表示管理テーブル12への登録処理(編集登録)を示したフローチャートである。なお、この場合においても、CPU1は、この管理テーブルへの登録編集が指示されると、対話形式で利用者にデータ入力を促す案内表示を行いながらテーブル登録処理を実行する。
先ず、CPU1は、属性表示管理テーブル12内に設定されているデフォルト値を読み出して案内表示する(ステップB1)。この状態において、利用者は、この表示画面から編集対象(音に関する属性)を任意に選択指定する(ステップB2)。ここで、デフォルト設定されている複数種の音属性の中から利用者にとって不要と思われる音属性が選択指定された場合には、属性表示管理テーブル12内の各音属性のうち、選択指定された音属性が無効とし、他の全ての属性を有効なものとして機能させることができる。例えば、「音の高さ」が不要な属性として選択された場合には、「音の高さ」のみを無効とすることができる。
FIG. 8 is a flowchart showing registration processing (edit registration) in the attribute display management table 12. Even in this case, when the registration editing to the management table is instructed, the CPU 1 executes the table registration process while performing guidance display for prompting the user to input data in an interactive manner.
First, the CPU 1 reads out the default value set in the attribute display management table 12 and displays the guidance (step B1). In this state, the user arbitrarily selects and designates an editing target (sound attribute) from this display screen (step B2). Here, when a sound attribute that is considered unnecessary for the user is selected from a plurality of types of sound attributes that are set as default, the sound attribute in the attribute display management table 12 is selected and specified. The sound attribute is invalid, and all other attributes can be made valid. For example, when “pitch” is selected as an unnecessary attribute, only “pitch” can be invalidated.

また、オブジェクト属性のデフォルト設定を編集するために、それに対応する音の属性が選択指定された場合には、当該オブジェクト属性のデフォルト設定が編集対象として指定される。この場合、デフォルト設定を変更するために、そのオブジェクト属性が任意に入力指定されると、このオブジェクト属性は、当該デフォルト値に代わって属性表示管理テーブル12内に設定される(ステップB)。ここで、図4の例では、「音量」に対応するオブジェクト属性のデフォルト設定は「色の濃さ」であるが、これを「大きさ」に変更する場合には、「音量」に対応するオブジェクト属性として「大きさ」を指定すればよい。
なお、この場合の入力支援として、オブジェクト属性の一覧を表示し、その中から任意の属性を選択指定するようにしてもよい。また、例えば、「音量」に対応するオブジェクト属性のデフォルト「色の濃さ」と、「音の高さ」に対応するオブジェクト属性のデフォルト「色合い」とを相互に入れ換える場合には、その属性入れ換えを指示するようにしてもよい。
In addition, in order to edit the default setting of the object attribute, when the corresponding sound attribute is selected and specified, the default setting of the object attribute is specified as an editing target. In this case, when the object attribute is arbitrarily input and specified in order to change the default setting, the object attribute is set in the attribute display management table 12 in place of the default value (step B). Here, in the example of FIG. 4, the default setting of the object attribute corresponding to “volume” is “color density”, but when this is changed to “size”, it corresponds to “volume”. “Size” may be specified as the object attribute.
As input support in this case, a list of object attributes may be displayed, and an arbitrary attribute may be selected and designated from the list. In addition, for example, when the object attribute default “color density” corresponding to “volume” and the object attribute default “color shade” corresponding to “sound pitch” are interchanged, the attribute replacement is performed. May be instructed.

このようにして音属性対応のオブジェクト属性が変更されると、それに対応する表示形態の変更を促す案内表示を行う。この場合、上述したようにオブジェクト属性のデフォルトの相互入れ換えが指示された場合には、それに合わせて表示形態のデフォルト値を相互入れ換えが行われるが、音属性対応のオブジェクト属性を変更せず、それに対応する表示形態のデフォルト値のみを変更することもできる。この場合、任意の表示形態が入力されると、この表示形態は当該デフォルト値に代わって属性表示管理テーブル12内に設定される(ステップB4)。なお、ここで、音の属性値に応じて変化する表示形態のデフォルト値を複数変更する場合には、その数分の表示形態の入力によって当該デフォルト値の変更が行われる。以下、上述の動作は、編集終了が指示されるまで繰り返される(ステップB1〜B5)。  When the object attribute corresponding to the sound attribute is changed in this way, a guidance display that prompts the user to change the corresponding display form is performed. In this case, as described above, when the default mutual replacement of the object attribute is instructed, the default value of the display form is interchanged accordingly, but the object attribute corresponding to the sound attribute is not changed, and Only the default value of the corresponding display form can be changed. In this case, when an arbitrary display form is input, this display form is set in the attribute display management table 12 in place of the default value (step B4). Here, when a plurality of display form default values that change in accordance with the sound attribute value are changed, the default values are changed by inputting the display forms for that number. Hereinafter, the above-described operation is repeated until the end of editing is instructed (steps B1 to B5).

図9は、入力音に応答して実行されるオブジェクト表示処理を示したフローチャートである。
先ず、CPU1は、音響センサ7(3つのマイクロフォン71)から入力された音響データを取り込んで時系列で記憶すると共に(ステップC1)、音響スペクトラムにしたがってその時空間分布を解析し(ステップC2)、この解析結果と音響種別管理テーブル11内の各「特徴データ」とを比較し(ステップC3)、その中に一致するものが登録されているか否かを調べる(ステップC4)。ここで、全て不一致であれば、オブジェクト表示の対象外としてステップC1に戻るが、何れかの「特徴データ」に一致する場合には(ステップC3でYES)、音響種別管理テーブル11から当該「特徴データ」対応の「オブジェクト画像データ」を取得する(ステップC4)。例えば、「車の走行音の特徴データ」に一致する場合には、当該「特徴データ」対応のオブジェクト画像として、図6に示すような「車の画像データ」が読み出される。
FIG. 9 is a flowchart showing object display processing executed in response to an input sound.
First, the CPU 1 takes in the acoustic data input from the acoustic sensor 7 (three microphones 71) and stores it in time series (step C1), and analyzes the spatiotemporal distribution according to the acoustic spectrum (step C2). The analysis result and each “feature data” in the acoustic type management table 11 are compared (step C3), and it is checked whether or not a matching one is registered (step C4). Here, if all do not match, the process returns to step C1 as being not subject to object display, but if it matches any “feature data” (YES in step C3), the “feature” is selected from the acoustic type management table 11. “Object image data” corresponding to “data” is acquired (step C4). For example, in the case of coincidence with “feature data of car driving sound”, “car image data” as shown in FIG. 6 is read as an object image corresponding to the “feature data”.

次に、該一致部分の音量を判定し、この音量に基づいて属性表示管理テーブル12をアクセスし、それに対応する「オブジェクト属性」を決定すると共に、音量の大きさに応じてオブジェクトの「表示形態」を決定する(ステップC5)。すなわち、音量に対応するオブジェクト属性として「色の濃さ」が決定されると共に、例えば、車の走行音の大きさが「40db」であれば、「50%濃度」が属性表示管理テーブル12から読み出される。  Next, the volume of the matching portion is determined, the attribute display management table 12 is accessed based on this volume, the corresponding “object attribute” is determined, and the “display mode” of the object is determined according to the volume level. Is determined (step C5). That is, “color density” is determined as the object attribute corresponding to the volume, and “50% density” is determined from the attribute display management table 12 when the loudness of the driving sound of the car is “40 db”, for example. Read out.

更に、該一致部分の音の高さ量を判定し、この音の高さに基づいて属性表示管理テーブル12をアクセスし、それに対応する「オブジェクト属性」を決定すると共に、音の高さに大きさに応じてオブジェクトの「表示形態」を決定する(ステップC6)。すなわち、音の高さに対応するオブジェクト属性として「色合い」が決定されると共に、例えば、車の走行音の高さが「1KHz」であれば、「橙色」が属性表示管理テーブル12から読み出される。  Further, the pitch of the matching portion is determined, the attribute display management table 12 is accessed based on this pitch, the corresponding “object attribute” is determined, and the pitch is increased. Accordingly, the “display form” of the object is determined (step C6). That is, “color tone” is determined as an object attribute corresponding to the pitch of the sound, and “orange” is read from the attribute display management table 12 if the driving sound level of the car is “1 KHz”, for example. .

そして、該一致部分の音源方向を各マイクロフォンに対応する音の位相差および音量差に基づいて判定し、この音源方向に基づいて属性表示管理テーブル12をアクセスし、それに対応する「オブジェクト属性」を決定すると共に、音源方向に応じてオブジェクトの「表示形態」を決定する(ステップC7)。すなわち、音源方向に対応するオブジェクト属性として「表示位置」が決定されると共に、例えば、携帯装置を向けている方向に対して自動車が左側から接近して来る場合には、オブジェクトの表示位置として「左側」が属性表示管理テーブル12から読み出される。  Then, the sound source direction of the matching portion is determined based on the phase difference and volume difference of the sound corresponding to each microphone, and the attribute display management table 12 is accessed based on the sound source direction, and the corresponding “object attribute” is set. At the same time, the “display form” of the object is determined according to the sound source direction (step C7). That is, the “display position” is determined as the object attribute corresponding to the sound source direction. For example, when the automobile approaches from the left side in the direction in which the mobile device is directed, the object display position is “ “Left side” is read from the attribute display management table 12.

更に、該一致部分の音源の距離を各マイクロフォンに対応する音の位相差および音量差に基づいて判定し、この音源との距離に基づいて属性表示管理テーブル12をアクセスし、それに対応する「オブジェクト属性」を決定すると共に、音源との距離に応じてオブジェクトの「表示形態」を決定する(ステップC8)。すなわち、音源との距離に対応するオブジェクト属性として「大きさ(サイズ)」が決定されると共に、例えば、自動車が50mに位置であれば、オブジェクトサイズとして「5cm」が属性表示管理テーブル12から読み出される。  Further, the distance of the sound source of the coincident portion is determined based on the phase difference and volume difference of the sound corresponding to each microphone, and the attribute display management table 12 is accessed based on the distance to the sound source, and the corresponding “object” The “attribute” is determined, and the “display form” of the object is determined according to the distance from the sound source (step C8). That is, “size (size)” is determined as the object attribute corresponding to the distance to the sound source. For example, if the automobile is located at 50 m, “5 cm” is read from the attribute display management table 12 as the object size. It is.

次に、音響種別管理テーブル11をアクセスし、上述した音量、音源の方向、音源との距離の判定結果などを参照して緊急度を判定し、この緊急度に基づいて属性表示管理テーブル12をアクセスし、それに対応する「オブジェクト属性」を決定すると共に、緊急度に応じてオブジェクトの「表示形態」を決定する(ステップC9)。すなわち、緊急度に対応するオブジェクト属性として「点滅速度」が決定されると共に、例えば、自動車の接近方向に移動中であり、かつ、距離が50mであれば、中度の危険であるため、「毎秒2回の点滅速度」が属性表示管理テーブル12から読み出される。そして、緊急度が高いか否か調べ(ステップC10)、高い場合には、緊急度に応じた強度または振動数で振動モータ8を駆動させてバイブレーションを発生させる(ステップC12)。  Next, the sound type management table 11 is accessed, the urgency level is determined by referring to the determination result of the volume, the direction of the sound source, the distance to the sound source, and the like, and the attribute display management table 12 is set based on the urgency level. Access is made and the “object attribute” corresponding to the access is determined, and the “display form” of the object is determined according to the degree of urgency (step C9). That is, “flashing speed” is determined as the object attribute corresponding to the urgency level, and, for example, if the vehicle is moving in the approaching direction of the vehicle and the distance is 50 m, it is a moderate danger. “Two blinks per second” is read from the attribute display management table 12. Then, it is checked whether or not the urgency level is high (step C10). If the urgency level is high, the vibration motor 8 is driven with a strength or a frequency corresponding to the urgency level to generate vibration (step C12).

このようにして音属性毎にオブジェクト属性および表示形態を決定すると、CPU1は、上述のステップで取得した画像データを音属性毎の表示形態で表示させる(ステップC11)。この場合、図6で示したように、表示画面上に自動車のオブジェクト画像が表示されていることから自動車が接近していることを知ることができ、また、その表示位置から自動車が左側から接近していることを知ることができ、更に、その表示サイズから距離が約50mであることを知ることができ、しかも、その表示色や濃さから車種や速度などを推測することができる。  When the object attribute and the display form are determined for each sound attribute in this way, the CPU 1 displays the image data acquired in the above steps in the display form for each sound attribute (step C11). In this case, as shown in FIG. 6, since the object image of the car is displayed on the display screen, it can be known that the car is approaching, and the car approaches from the left side from the display position. It is possible to know that the distance is about 50 m from the display size, and it is possible to estimate the vehicle type and speed from the display color and density.

以上のように、この実施例における聴覚障害者用携帯装置は、入力された音を解析することによって複数種の音の属性の各々に対応する属性値を算出し、この複数種の属性値に基づいて音響種別管理テーブル11、属性表示管理テーブル12を参照することによってオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定し、この属性毎の表示形態でオブジェクト表示を行うようにしたから、入力音を多角的に解析することによって複数の意味を持ったオブジェクトを表示することができ、1つの入力音から周囲のあらゆる状況を多義的に案内表示することができ可能となり、危険回避等に極めて有効なものとなる。   As described above, the portable device for the hearing impaired in this embodiment calculates an attribute value corresponding to each of a plurality of types of sound by analyzing the input sound, and sets the plurality of types of attribute values. Based on the sound type management table 11 and the attribute display management table 12, a display form corresponding to each of a plurality of types of attributes related to object display is determined, and object display is performed in the display form for each attribute. Therefore, it is possible to display objects with multiple meanings by analyzing the input sound from various perspectives, and it is possible to display various surrounding situations from a single input sound, thereby avoiding danger. And so on.

この場合、音の種別をオブジェクト形状に対応させたから、音とオブジェクトとの対応関係を直感的に判断することができる。また、音量を色の濃さ、音の高さを色合い、音源との距離をサイズ、音源の方向を表示位置、緊急度を点滅速度に対応させたから、利用者は、音とオブジェクトとの対応関係を直感的に判断することができる。
また、属性表示管理テーブル12にデフォルト設定されている内容を任意に変更可能としたから、利用者の好みや必要性に応じた入力音とオブジェクト表示との対応関係を任意に変更することができる。
In this case, since the type of sound is associated with the object shape, the correspondence between the sound and the object can be determined intuitively. In addition, the user can change the correspondence between the sound and the object because the volume is the color depth, the pitch is the tone, the distance from the sound source is the size, the direction of the sound source is the display position, and the urgent level is the flashing speed. The relationship can be judged intuitively.
In addition, since the contents set as default in the attribute display management table 12 can be arbitrarily changed, the correspondence between the input sound and the object display according to the user's preference and necessity can be arbitrarily changed. .

また、音響種別管理テーブル11において、音の種別に対応してその音の特徴データを任意に登録するようにしたから、例えば、自分を呼ぶ声など、音の種別を利用者の好みや必要性に応じて任意に登録することができる。更に、オブジェクト表示の他に、バイブレーション報知を行うようにしたから、確実な報知を実現することができる。この場合、バイブレーション機能を作動させる際に、緊急度に応じた強度または振動数でバイブレーション報知を行うようにしたから、バイブレーション報知によっても緊急度合いを容易に知ることができる。   Further, in the acoustic type management table 11, the characteristic data of the sound is arbitrarily registered corresponding to the type of sound. It can be registered arbitrarily according to. Further, since the vibration notification is performed in addition to the object display, reliable notification can be realized. In this case, when the vibration function is activated, the vibration notification is performed with the intensity or the frequency according to the urgency level, and therefore the urgency level can be easily known by the vibration notification.

なお、上述した実施例においては、複数種の音に関する属性として、「音の種別」、「音量」、「音の高さ(音程)」、「音源との距離」、「音源の方向」、「緊急度」を例示したが、その他に、「音の長短」、「リズム」、「メロディ」などであってもよい。
また、上述した実施例においては、複数種のオブジェクトに関する属性として、オブジェクトの「形状」、「色の濃さ」、「色合い」、「大きさ(サイズ)」、「表示位置」、「点滅速度」を例示したが、その他に「透過度」、「動作変化」などであってもよい。
また、上述した実施例においては、音の種別毎に中度、高度などの複数種の「緊急度」を登録しておき、音量、音源の方向、音源との距離などから緊急度を判定するようにしたが、音の種別毎に標準的な「緊急度に関する基準データ」だけを登録しておき、これを基準として「緊急度」を無段階的に自動判定するようにしてもよい。
その他に、聴覚障害者用携帯装置に適用する場合に限らず、一般用として、広く活用することも可能である。
In the above-described embodiment, the attributes relating to a plurality of types of sound include “sound type”, “volume”, “pitch (pitch)”, “distance to sound source”, “direction of sound source”, “Urgent level” is exemplified, but “sound length”, “rhythm”, “melody”, and the like may also be used.
In the above-described embodiment, the attributes related to a plurality of types of objects include “shape”, “color density”, “color shade”, “size (size)”, “display position”, “flashing speed” of the object. ”Is illustrated, but“ transparency ”,“ operation change ”, and the like may be used.
In the above-described embodiment, a plurality of “emergency levels” such as medium and altitude are registered for each type of sound, and the urgency level is determined from the volume, the direction of the sound source, the distance from the sound source, and the like. However, it is also possible to register only the standard “reference data regarding urgency” for each type of sound and automatically determine the “urgency” steplessly based on this.
In addition, the present invention is not limited to the application to the portable device for the hearing impaired, but can be widely used for general use.

一方、コンピュータに対して、上述した各手段を実行させるためのプログラムコードをそれぞれ記録した記録媒体(例えば、CD−ROM、フレキシブルデスク、RAMカード等)を提供するようにしてもよい。すなわち、コンピュータが読み取り可能なプログラムコードを有する記録媒体であって、音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を取得する機能と、入力音を解析することによって複数種の属性の各々に対応する属性値を算出する機能と、算出された複数種の属性値と前記属性対応情報とに基づいてオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定する機能と、決定された属性毎の表示形態でオブジェクト表示を行う機能とを実現させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するようにしてもよい。   On the other hand, a recording medium (for example, a CD-ROM, a flexible desk, a RAM card, or the like) on which a program code for causing each of the above-described units to be executed is recorded may be provided to the computer. That is, a recording medium having a computer-readable program code, a function of acquiring attribute correspondence information in which a plurality of attributes related to sound and a plurality of attributes related to an object are associated, and analysis of input sound A function for calculating attribute values corresponding to each of a plurality of types of attributes, and a display form corresponding to each of the plurality of types of attributes related to object display based on the calculated plurality of types of attribute values and the attribute correspondence information You may make it provide the computer-readable recording medium which recorded the program for implement | achieving the function to determine and the function to display an object by the display form for every determined attribute.

聴覚障害者用携帯装置の全体構成の概要を示したブロック図。The block diagram which showed the outline | summary of the whole structure of the portable apparatus for hearing impaired persons. 聴覚障害者用携帯装置の裏面側に配置された複数(3個)のマイクロフォン71を示した図。The figure which showed the several (three) microphone 71 arrange | positioned at the back surface side of the portable apparatus for hearing impaired persons. 音響種別管理テーブル11の内容を示した図。The figure which showed the content of the acoustic classification management table. 属性表示管理テーブル12の内容を示した図。The figure which showed the content of the attribute display management table 12. FIG. 聴覚障害者用携帯装置を所持している利用者に向かって自動車が接近している場合を例示した図。The figure which illustrated the case where a car is approaching towards the user who has the portable device for hearing impaired people. 図5の場合におけるオブジェクト表示の具体例を示した図である。It is the figure which showed the specific example of the object display in the case of FIG. 音響種別管理テーブル11への登録処理を示したフローチャート。The flowchart which showed the registration process to the acoustic classification management table 11. FIG. 属性表示管理テーブル12への登録処理(編集登録)を示したフローチャート。The flowchart which showed the registration process (edit registration) to the attribute display management table 12. FIG. 入力音に応答して実行されるオブジェクト表示処理を示したフローチャート。The flowchart which showed the object display process performed in response to an input sound.

符号の説明Explanation of symbols

1 CPU
2 記憶装置
4 通信装置
5 入力装置
6 表示装置
7 音響センサ
8 振動モータ
11 音響種別管理テーブル
12 属性表示管理テーブル
1 CPU
2 storage device 4 communication device 5 input device 6 display device 7 acoustic sensor 8 vibration motor 11 acoustic type management table 12 attribute display management table

Claims (12)

入力音に応答してオブジェクト表示を行うオブジェクト表示装置において、
音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を記憶管理する属性対応情報記憶手段と、
入力音を解析することによって複数種の属性の各々に対応する属性値を算出する算出手段と、
この算出手段によって算出された複数種の属性値と前記属性対応情報とに基づいてオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定する決定手段と、
この決定手段によって決定された属性毎の表示形態でオブジェクト表示を行う表示制御手段と、
を具備したことを特徴とするオブジェクト表示装置。
In an object display device that displays an object in response to an input sound,
Attribute correspondence information storage means for storing and managing attribute correspondence information in which a plurality of types of attributes related to sound and a plurality of types of attributes related to objects are associated;
Calculating means for calculating an attribute value corresponding to each of the plurality of types of attributes by analyzing the input sound;
Determining means for determining a display form corresponding to each of a plurality of types of attributes related to object display based on the plurality of types of attribute values calculated by the calculation unit and the attribute correspondence information;
Display control means for displaying an object in a display form for each attribute determined by the determination means;
An object display device comprising:
前記音に関する複数種の属性は、音の種別、音の強弱、高低、長短、音源の方向、音源との距離、緊急度のうち、少なくとも、その何れかを含む情報である、
ことを特徴とする請求項1記載のオブジェクト表示装置。
The plurality of types of attributes related to the sound is information including at least one of the type of sound, the strength of the sound, the height, the length, the direction of the sound source, the distance to the sound source, and the urgency level.
2. The object display device according to claim 1, wherein:
前記オブジェクトに関する複数種の属性は、オブジェクトの種類、形状、表示位置、サイズ、色合い、色の濃さ、透過度、点滅速度、動作変化のうち、少なくとも、その何れかを含む情報である、
ことを特徴とする請求項1記載のオブジェクト表示装置。
The plurality of types of attributes related to the object is information including at least one of the type, shape, display position, size, hue, color density, transparency, blinking speed, and operation change of the object.
2. The object display device according to claim 1, wherein:
前記属性対応情報は、少なくとも、音の種別をオブジェクトの種類またはその形状に対応させた情報である、
ことを特徴とする請求項1記載のオブジェクト表示装置。
The attribute correspondence information is information that associates at least the type of sound with the type of object or its shape,
2. The object display device according to claim 1, wherein:
前記属性対応情報は、少なくとも、音の強弱/高低/長短をオブジェクトのサイズ/色/透過度/点滅速度/動作変化に対応させた情報である、
ことを特徴とする請求項1記載のオブジェクト表示装置。
The attribute correspondence information is information in which at least sound intensity / high / low / long / short is associated with object size / color / transparency / flashing speed / motion change.
2. The object display device according to claim 1, wherein:
前記音に関する複数の属性は、音源との距離あるいは音源の方向に関する情報を含み、
前記算出手段は、複数のマイクロフォンからの入力音を解析することによって音源との距離あるいは音源の方向を含む複数種の属性値を算出する、
ようにしたことを特徴とする請求項1記載のオブジェクト表示装置。
The plurality of attributes relating to the sound includes information on a distance to the sound source or a direction of the sound source,
The calculation means calculates a plurality of types of attribute values including a distance to a sound source or a direction of a sound source by analyzing input sounds from a plurality of microphones.
2. The object display device according to claim 1, wherein the object display device is configured as described above.
前記属性対応情報は、少なくとも、音源の方向あるいは音源との距離をオブジェクトの位置またはそのサイズに対応させた情報である、
ことを特徴とする請求項6記載のオブジェクト表示装置。
The attribute correspondence information is information that associates at least the direction of the sound source or the distance to the sound source with the position of the object or its size.
The object display device according to claim 6.
前記音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を任意に登録する登録手段を設け、
前記取得手段は、この登録手段によって登録された属性対応情報を取得する、
ようにしたことを特徴とする請求項1記載のオブジェクト表示装置。
Providing a registration means for arbitrarily registering attribute correspondence information in which a plurality of attributes related to the sound and a plurality of attributes related to the object are associated;
The acquisition means acquires attribute correspondence information registered by the registration means;
2. The object display device according to claim 1, wherein the object display device is configured as described above.
入力された音波形をサンプリングしてその特徴を抽出することによって得られた特徴データと、その種別を示す属性とを対応付けて任意に登録する登録手段を設け、
入力音を解析することによって得られた特徴データと前記登録されている種別毎の特徴データとを照合することによって当該入力音の種別を判定する、
ようにしたことを特徴とする請求項1記載のオブジェクト表示装置。
A registration means for arbitrarily registering the feature data obtained by sampling the input sound waveform and extracting the feature and the attribute indicating the type is provided,
Determining the type of the input sound by comparing the feature data obtained by analyzing the input sound and the feature data for each registered type,
The object display device according to claim 1, which is configured as described above.
入力音を解析した際に、前記特徴データに一致する音が検出された場合には、報知用のバイブレーション機能を作動させる、
ようにしたことを特徴とする請求項9記載のオブジェクト表示装置。
When a sound that matches the feature data is detected when the input sound is analyzed, a notification vibration function is activated.
The object display device according to claim 9, which is configured as described above.
前記バイブレーション機能を作動させる際に、緊急度に応じた強度または振動数でバイブレーション報知を行わせる、
ようにしたことを特徴とする請求項10記載のオブジェクト表示装置。
When activating the vibration function, vibration notification is performed at a strength or frequency according to the degree of urgency.
The object display device according to claim 10, which is configured as described above.
コンピュータに対して、
音に関する複数種の属性とオブジェクトに関する複数種の属性とを対応付けた属性対応情報を記憶管理する機能と、
入力音を解析することによって複数種の属性の各々に対応する属性値を算出する機能と、
算出された複数種の属性値と前記属性対応情報とに基づいてオブジェクト表示に関する複数種の属性の各々に対応する表示形態を決定する機能と、
決定された属性毎の表示形態でオブジェクト表示を行う機能と、
を実現させるためのプログラム。
Against the computer,
A function for storing and managing attribute correspondence information in which multiple types of attributes related to sound and multiple types of attributes related to objects are associated;
A function of calculating attribute values corresponding to each of a plurality of types of attributes by analyzing the input sound;
A function of determining a display form corresponding to each of a plurality of types of attributes related to object display based on the calculated plurality of types of attribute values and the attribute correspondence information;
A function for displaying an object in a display mode for each determined attribute;
A program to realize
JP2003332962A 2003-09-25 2003-09-25 Object display device and program Pending JP2005099418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003332962A JP2005099418A (en) 2003-09-25 2003-09-25 Object display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003332962A JP2005099418A (en) 2003-09-25 2003-09-25 Object display device and program

Publications (1)

Publication Number Publication Date
JP2005099418A true JP2005099418A (en) 2005-04-14

Family

ID=34461115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003332962A Pending JP2005099418A (en) 2003-09-25 2003-09-25 Object display device and program

Country Status (1)

Country Link
JP (1) JP2005099418A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183417A (en) * 2009-02-06 2010-08-19 Hitachi Ltd Voice information display system, voice information display method, and voice information display device
JP2012008842A (en) * 2010-06-25 2012-01-12 Brother Ind Ltd Portable display and display control program
WO2013072554A2 (en) * 2011-11-17 2013-05-23 Nokia Corporation Spatial visual effect creation and display such as for a screensaver
JP2014085386A (en) * 2012-10-19 2014-05-12 Jvc Kenwood Corp Voice information display device, voice information display method and program
JP2014098573A (en) * 2012-11-13 2014-05-29 Jvc Kenwood Corp Voice information notification device, voice information notification method, and program
JP5604574B1 (en) * 2013-09-13 2014-10-08 日本電信電話株式会社 Object generation device, method, and program
WO2015194141A1 (en) * 2014-06-19 2015-12-23 日本電気株式会社 Information presentation apparatus, information presentation system, information presentation method, and storage medium
WO2016075780A1 (en) * 2014-11-12 2016-05-19 富士通株式会社 Wearable device, display control method, and display control program
WO2016075781A1 (en) * 2014-11-12 2016-05-19 富士通株式会社 Wearable device, display control method, and display control program
WO2016075782A1 (en) * 2014-11-12 2016-05-19 富士通株式会社 Wearable device, display control method, and display control program
JP2018531460A (en) * 2015-09-29 2018-10-25 フジオ ダーツ テクノロジー エス エルFusio D’Arts Technology, S.L. Notification device and notification method
US10148903B2 (en) 2012-04-05 2018-12-04 Nokia Technologies Oy Flexible spatial audio capture apparatus
JP2020034542A (en) * 2018-08-28 2020-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method, information processor and program
US20200217917A1 (en) * 2019-01-08 2020-07-09 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
JP2021063839A (en) * 2016-10-26 2021-04-22 グーグル エルエルシーGoogle LLC System and method for using visual landmark in initial navigation
US11869512B2 (en) 2019-04-02 2024-01-09 Samsung Electronics Co., Ltd. Electronic device and control method therefor

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183417A (en) * 2009-02-06 2010-08-19 Hitachi Ltd Voice information display system, voice information display method, and voice information display device
JP2012008842A (en) * 2010-06-25 2012-01-12 Brother Ind Ltd Portable display and display control program
WO2013072554A2 (en) * 2011-11-17 2013-05-23 Nokia Corporation Spatial visual effect creation and display such as for a screensaver
WO2013072554A3 (en) * 2011-11-17 2013-07-11 Nokia Corporation Spatial visual effect creation and display such as for a screensaver
US9285452B2 (en) 2011-11-17 2016-03-15 Nokia Technologies Oy Spatial visual effect creation and display such as for a screensaver
US10148903B2 (en) 2012-04-05 2018-12-04 Nokia Technologies Oy Flexible spatial audio capture apparatus
US10419712B2 (en) 2012-04-05 2019-09-17 Nokia Technologies Oy Flexible spatial audio capture apparatus
JP2014085386A (en) * 2012-10-19 2014-05-12 Jvc Kenwood Corp Voice information display device, voice information display method and program
JP2014098573A (en) * 2012-11-13 2014-05-29 Jvc Kenwood Corp Voice information notification device, voice information notification method, and program
JP5604574B1 (en) * 2013-09-13 2014-10-08 日本電信電話株式会社 Object generation device, method, and program
JP2015056132A (en) * 2013-09-13 2015-03-23 日本電信電話株式会社 Object generation device, method, and program
US10475220B2 (en) 2014-06-19 2019-11-12 Nec Corporation Information presentation apparatus, information presentation method, and non-transitory computer-readable storage medium
US10559108B2 (en) 2014-06-19 2020-02-11 Nec Corporation Superimposition of situation expression onto captured image
JP2020113989A (en) * 2014-06-19 2020-07-27 日本電気株式会社 Information presentation method, information presentation system, and information presentation program
US10593089B2 (en) 2014-06-19 2020-03-17 Nec Corporation Superimposition of situation expression onto captured image
US11164354B2 (en) 2014-06-19 2021-11-02 Nec Corporation Superimposition of situation expressions onto captured image
WO2015194141A1 (en) * 2014-06-19 2015-12-23 日本電気株式会社 Information presentation apparatus, information presentation system, information presentation method, and storage medium
WO2016075780A1 (en) * 2014-11-12 2016-05-19 富士通株式会社 Wearable device, display control method, and display control program
US10490101B2 (en) 2014-11-12 2019-11-26 Fujitsu Limited Wearable device, display control method, and computer-readable recording medium
WO2016075781A1 (en) * 2014-11-12 2016-05-19 富士通株式会社 Wearable device, display control method, and display control program
WO2016075782A1 (en) * 2014-11-12 2016-05-19 富士通株式会社 Wearable device, display control method, and display control program
JP2018531460A (en) * 2015-09-29 2018-10-25 フジオ ダーツ テクノロジー エス エルFusio D’Arts Technology, S.L. Notification device and notification method
US11604077B2 (en) 2016-10-26 2023-03-14 Google Llc Systems and method for using visual landmarks in initial navigation
JP7127165B2 (en) 2016-10-26 2022-08-29 グーグル エルエルシー Systems and methods for using visual landmarks in initial navigation
JP2021063839A (en) * 2016-10-26 2021-04-22 グーグル エルエルシーGoogle LLC System and method for using visual landmark in initial navigation
JP2020034542A (en) * 2018-08-28 2020-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method, information processor and program
JP7285690B2 (en) 2018-08-28 2023-06-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device and program
WO2020145579A1 (en) 2019-01-08 2020-07-16 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
CN113287292A (en) * 2019-01-08 2021-08-20 三星电子株式会社 Electronic device, control method of electronic device, and computer-readable medium
KR102232045B1 (en) * 2019-01-08 2021-03-25 삼성전자주식회사 Electronic apparatus, controlling method of electronic apparatus and computer readable medium
KR20200086120A (en) * 2019-01-08 2020-07-16 삼성전자주식회사 Electronic apparatus, controlling method of electronic apparatus and computer readable medium
US20200217917A1 (en) * 2019-01-08 2020-07-09 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
US11668782B2 (en) 2019-01-08 2023-06-06 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
US11869512B2 (en) 2019-04-02 2024-01-09 Samsung Electronics Co., Ltd. Electronic device and control method therefor

Similar Documents

Publication Publication Date Title
JP2005099418A (en) Object display device and program
US8036895B2 (en) Cooperative processing for portable reading machine
JP2010236858A (en) Navigation device
CN110390932A (en) Method of speech processing and its equipment based on recognition of face
EP1589734A3 (en) Method for displaying status information on a mobile terminal
EP1260918A3 (en) Database model, tools and methods for organizing information across external information objects
EP1455268A3 (en) Presentation of data based on user input
JP2015508487A (en) Navigation sound scaling
US20190333496A1 (en) Spatialized verbalization of visual scenes
KR20020062040A (en) Commucation method using a bluetooth and a system used therefor, and a server and a terminal used therefor
KR101756766B1 (en) Message integration control apparatus during driving and method of the same
JP2005033346A (en) Apparatus and method for processing information, and software
CN105791542A (en) Method and device for searching mobile terminal and mobile terminal
RU99122746A (en) METHOD FOR VIRTUAL MACHINE INTEGRATION WITH EDITOR METHODS EDITORS
JP2001067098A (en) Person detecting method and device equipped with person detecting function
JP2001357408A5 (en)
JP4051990B2 (en) Safe driving support device and image processing device
JP2002219142A (en) Instrument for guiding visually impaired person
JP2007228275A (en) Portable terminal device and cover
US20040167781A1 (en) Voice output unit and navigation system
CN111028823A (en) Audio generation method and device, computer readable storage medium and computing device
JP3818423B2 (en) Information output system
JP2003345486A (en) User assistance device, user assistance method, user assistance program and recording medium storing user assistance program
CN112261586A (en) Method for automatically identifying driver to limit driving range of driver by using vehicle-mounted robot
EP1271380A3 (en) A method and apparatus to enable flexible and direct navigation within a visual representation of an organisation

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060412

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309