JPH09190544A - Acoustic presentation method for image data - Google Patents

Acoustic presentation method for image data

Info

Publication number
JPH09190544A
JPH09190544A JP8003615A JP361596A JPH09190544A JP H09190544 A JPH09190544 A JP H09190544A JP 8003615 A JP8003615 A JP 8003615A JP 361596 A JP361596 A JP 361596A JP H09190544 A JPH09190544 A JP H09190544A
Authority
JP
Japan
Prior art keywords
sound
area
image data
window
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8003615A
Other languages
Japanese (ja)
Inventor
Toshiyuki Aritsuka
俊之 在塚
Nobuo Hataoka
信夫 畑岡
寿一 ▲高▼橋
Juichi Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP8003615A priority Critical patent/JPH09190544A/en
Publication of JPH09190544A publication Critical patent/JPH09190544A/en
Pending legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire the position and contents of invisible component elements existing out of a display area without scrolling display screen by outputting a specific sound that is previously made to correspond to the component element of a plotting area to an acoustic area correspond to the plotting area localizing a sound image in the acoustic area. SOLUTION: A portable information terminal 401 generates the stereophonic sounds and outputs them through the speakers 402 and 403. The component elements of a window system such as windows 406, 407, an icon 408, etc., are arranged in a plotting area 405. When the window system receives an instruction from a user to search for the position of the window 406, for example, the system outputs the sound that is previously assigned to the window 406 after localizing a sound image at the centroid position, for example. of the window 406. Thus the user can judge the position of the window 406 even when the window 406 is not displayed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータや、
情報機器等のデータ提示方法に関し、表示画像情報を音
響表現する方法および、これを用いた装置に関する。
TECHNICAL FIELD The present invention relates to a computer,
The present invention relates to a data presentation method for information equipment and the like, and a method for acoustically expressing display image information and an apparatus using the same.

【0002】[0002]

【従来の技術】コンピュータや通信端末等の情報機器の
主要な情報提示手段であるディスプレイ画面は、近年、
使用者の使い勝手を向上するためのGUI化が主流にな
っている。また、ディスプレイの高精細化に伴い、表示
情報に含まれる画像データの割合はますます増加する傾
向にある。
2. Description of the Related Art Display screens, which are the main means of presenting information in information equipment such as computers and communication terminals, have recently become popular.
The GUI is becoming the mainstream to improve the usability for users. In addition, the proportion of image data included in display information tends to increase more and more with the increase in definition of displays.

【0003】一方で、通信インフラの発達に伴い、移動
中や外出時の情報の授受や記憶補助の目的で、携帯性を
高めた情報端末へのニーズが高まっている。ところが、
携帯情報端末などでは、携帯性を高めるために全体のサ
イズを小さくすることが必要であるため、これに合わせ
て表示画面も小さくなり、表示できる情報が制限され
る。
On the other hand, with the development of communication infrastructure, there is an increasing need for an information terminal with improved portability for the purpose of exchanging information and moving information when moving or going out. However,
In a portable information terminal or the like, it is necessary to reduce the overall size in order to enhance portability, and accordingly, the display screen is also reduced, which limits the information that can be displayed.

【0004】表示画面の小ささを解消する従来の方法と
しては、ディスプレイサイズより大きい仮想的なスクリ
ーンを設定し、ディスプレイを該スクリーンの一表示領
域であるかのように見せ、画面をスクロールして目的の
オブジェクトを探索する方式や、複数のスクリーンを持
ち、これらを切り替えて表示する方式がある。
As a conventional method for eliminating the smallness of the display screen, a virtual screen larger than the display size is set, the display is made to appear as one display area of the screen, and the screen is scrolled. There are a method of searching for a target object and a method of having a plurality of screens and switching between them.

【0005】また、ディスプレイ画面のような描画領域
内の構成要素の位置や形状を聴覚情報に変換することに
よって提示する方法もある。このような方法の中には、
予め構成要素にその形状や色等の特徴を表わす言語を付
与しておき、これらを音声合成技術を用いて読み上げる
方法や、構成要素を特定の音に対応付け、これらを出力
する方法がある。
There is also a method of presenting by converting the positions and shapes of constituent elements in a drawing area such as a display screen into auditory information. Some of these methods include
There is a method of preliminarily assigning a language expressing characteristics such as shape and color to the constituent elements and reading them out by using a voice synthesis technique, or a method of associating the constituent elements with a specific sound and outputting them.

【0006】従来提案されている音声合成方法として
は、例えば、J. Allen, M. S. Hunnicutt and D. Klat
t, "From text to speech: The MITalk system"(Camb
ridgeUniversity Press, 1987)記載の方法がある。こ
れは、テキストを解析し、規則を用いて音声信号に変換
する方法である。
[0006] As a conventionally proposed speech synthesis method, for example, J. Allen, MS Hunnicutt and D. Klat are used.
t, "From text to speech: The MITalk system" (Camb
ridgeUniversity Press, 1987). This is a method of parsing text and converting it into an audio signal using rules.

【0007】また、構成要素に対応付けた音を出力する
方法としては、例えば、Gaver, W.W., "Using and Cr
eating Auditory Icons"(Auditory Display, SFI Stu
dies in the Sciences of Complexity, Proc. Vol. XV
III, Addison-Wesley, 417-446, 1994)記載の方法
がある。
As a method of outputting sounds associated with the constituent elements, for example, Gaver, WW, "Using and Cr
eating Auditory Icons "(Auditory Display, SFI Stu
dies in the Sciences of Complexity, Proc. Vol. XV
III, Addison-Wesley, 417-446, 1994).

【0008】[0008]

【発明が解決しようとする課題】仮想的にディスプレイ
より大きいスクリーンを設定する方式では、ディスプレ
イの範囲の外にある表示されていない部分の構成要素が
見えないため、画面スクロールを行って必要な情報を探
索するのに時間がかかるという問題があった。これを解
決するために、スクリーンの全領域に含まれる構成要素
の配置を表示するヘルプ領域を表示する方法があるが、
表示画面が小さい場合には、このような領域を設定する
ことが困難であるという問題があった。また、複数のス
クリーンを持つ方式でも、表示を選択されていないスク
リーン上にあるウインドウを見ることができないという
問題があった。
In the method of virtually setting a screen larger than the display, the constituent elements of the non-displayed portion outside the display range cannot be seen, so that the necessary information cannot be displayed by scrolling the screen. There was a problem that it took time to search. To solve this, there is a way to display a help area that displays the arrangement of components included in the entire screen area.
There is a problem that it is difficult to set such an area when the display screen is small. Further, even in the system having a plurality of screens, there is a problem in that it is not possible to see the windows on the screens whose display is not selected.

【0009】構成要素を音声によって読み上げる方法
や、音を対応付ける方法では、配置位置を判別すること
ができないという問題があった。
There is a problem that the arrangement position cannot be determined by the method of reading out the constituent elements by voice or the method of associating the sounds.

【0010】[0010]

【課題を解決するための手段】上記の問題を解決するた
めに、描画領域内の構成要素の位置に対応する音を音響
領域内に写像する手段と、描画領域内の構成要素の属性
を表す音を音響領域の特定の位置に定位する手段を設
け、ディスプレイ画面領域を内包する描画領域を設定し
て表示画像データを配置し、表示領域の外にある画像デ
ータに対し、該表示画像データに予め割り当てた音を、
該画像データの描画領域内の位置に対応する音響提示領
域内の位置に音像定位して出力するすることによって提
示する方法を用いる。
In order to solve the above problems, means for mapping a sound corresponding to the position of a constituent element in a drawing area into an acoustic area and an attribute of the constituent element in the drawing area are represented. A means for locating sound at a specific position in the acoustic area is provided, display image data is arranged by setting a drawing area that includes the display screen area, and image data outside the display area is allocated to the display image data. Sounds that have been assigned in advance
A method of presenting the sound image by locating and outputting the sound image to a position in the sound presentation region corresponding to the position in the drawing region of the image data is used.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施例を図を用い
て説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0012】図1は、本発明の方法を実行するためのハ
ードウエア構成の一実施例である。図1は、音声および
サウンド出力のための立体音響デバイスを有するコンピ
ュータシステムの構成を持つ。すわなち、演算を行うC
PU101、演算のためのプログラムおよびデータを一
時的に保持し、逐次書き換えを行うRAM102、シス
テム起動プログラム等を格納するROM103、システ
ム入出力を制御するためのI/Oコントローラ104、
システムプログラム、アプリケーションプログラム、デ
ータ等を保持するための磁気ディスク等の記憶装置10
5を有し、これらはシステムバス106を介して命令お
よびデータ転送を行う。また、I/Oコントローラ10
4は、CRTディスプレイ等の表示デバイス107、マ
ウス、タッチパネル等のポインティングデバイス10
8、キーボード等の入力デバイス109、データ送受用
通信ポート110、立体音響デバイス111をバス11
2を介して制御する。
FIG. 1 shows an embodiment of a hardware configuration for executing the method of the present invention. FIG. 1 has the configuration of a computer system having a stereophonic device for voice and sound output. That is, C that performs the operation
A PU 101, a RAM 102 for temporarily rewriting programs and data for arithmetic operations and sequentially rewriting, a ROM 103 for storing a system boot program, an I / O controller 104 for controlling system input / output,
Storage device 10 such as a magnetic disk for holding system programs, application programs, data, etc.
5, which perform instruction and data transfers via the system bus 106. In addition, the I / O controller 10
Reference numeral 4 denotes a display device 107 such as a CRT display and a pointing device 10 such as a mouse and a touch panel.
8, an input device 109 such as a keyboard, a data transmission / reception communication port 110, and a stereophonic device 111 on the bus 11
Control via 2.

【0013】このようなハードウェアの標準的制御は、
一般にオペレーティングシステムと呼ばれるソフトウェ
アで行われる。本発明である画像データの音響表現方法
のアルゴリズムは、該ハードウェアおよびオペレーティ
ングシステム上で実行されるソフトウェアとして実現す
ることが可能である。
The standard control of such hardware is
This is generally done with software called an operating system. The algorithm of the sound representation method of image data according to the present invention can be realized as software executed on the hardware and operating system.

【0014】本方法のアルゴリズムを実行するソフトウ
ェアは、ROM103または記憶装置105に格納さ
れ、システムの立ち上げ後、必要に応じてRAM102
にロードされて、CPU101によって実行される。ま
た、記憶装置105に予め格納されているデータや、入
力デバイス109や、通信ポート110を介して入力さ
れたデータは、ディスプレイの表示領域に配置されてい
る場合は、液晶ディスプレイ等の表示デバイス107を
用いて表示する。また、本画像データの音響表現方法に
よって生成した立体音響を用いた音声やサウンドは、立
体音響デバイス111を通して出力される。立体音響デ
バイスは、たとえばDSP等の高速信号処理チップを用
いた汎用ボードおよび複数スピーカーを用いて実現する
ことが可能である。
Software for executing the algorithm of the present method is stored in the ROM 103 or the storage device 105, and after starting the system, the RAM 102 may be used as necessary.
And is executed by the CPU 101. Further, when data stored in advance in the storage device 105, data input through the input device 109 or the communication port 110 is arranged in the display area of the display, a display device 107 such as a liquid crystal display is displayed. Display using. Further, the sound and sound using the stereophonic sound generated by the acoustic representation method of the image data is output through the stereophonic device 111. The stereophonic device can be realized by using a general-purpose board using a high-speed signal processing chip such as DSP and a plurality of speakers.

【0015】本ハードウェア構成は、例えば音響出力デ
バイスを有する一般的なパーソナルコンピュータやワー
クステーション、携帯情報端末等に用いられているた
め、本発明の方法は、これらの機器を用いて実現するこ
とが可能である。
Since the present hardware configuration is used, for example, in a general personal computer, workstation, portable information terminal or the like having an audio output device, the method of the present invention can be realized by using these devices. Is possible.

【0016】以下、本発明の方法を説明する。The method of the present invention will be described below.

【0017】図2は、描画領域上の構成要素を、音響領
域に音像定位することによって表現する例である。図
は、描画領域201と使用者207を、斜め後方から俯
瞰的に表している。描画領域201上には、構成要素2
02と203が描画されている。この描画領域上の構成
要素の座標を、音響領域204の座標に対応付け、各構
成要素を表現する音を該音響領域上の座標205および
206に定位する。音を音響領域に定位する方法として
は、例えば、小宮山、「音像制御技術」(テレビジョン
学会誌、 Vol.46, No.9, 1076-1079,1992)記載の空
間音像定位技術を用いることが可能である。このとき、
描画領域201はコンピュータディスプレイ等の表示装
置の表示画面サイズより大きくてもよい。
FIG. 2 shows an example in which the constituent elements in the drawing area are represented by sound image localization in the acoustic area. The drawing shows the drawing area 201 and the user 207 in a bird's-eye view from diagonally behind. In the drawing area 201, the component 2
02 and 203 are drawn. The coordinates of the constituent elements on the drawing area are associated with the coordinates of the acoustic area 204, and the sounds expressing each constituent element are localized at the coordinates 205 and 206 on the acoustic area. As a method for locating sound in the acoustic region, for example, the spatial sound image localization technology described in “Sound Image Control Technology” (Journal of the Television Society, Vol.46, No.9, 1076-1079, 1992) is used. It is possible. At this time,
The drawing area 201 may be larger than the display screen size of a display device such as a computer display.

【0018】ここで、音響領域内の距離と描画領域距離
が1対1になるように配置すれば、描画領域上の構成要
素の位置と音響領域上の音源の位置は完全に一致する。
また、音響領域を描画領域より大きくした場合は、相対
的に音像定位の解像度を向上させる効果が得られる。
Here, if the distances in the acoustic area and the drawing area distances are arranged to be one-to-one, the positions of the constituent elements in the drawing area and the positions of the sound sources in the acoustic area are completely matched.
Further, when the acoustic region is made larger than the drawing region, the effect of relatively improving the resolution of sound image localization can be obtained.

【0019】また、描画領域と音響領域の対応付けは、
例えば図3に示すように、使用者の両耳の中点を原点3
01とし、該原点と描画領域302上の構成要素303
の座標を直線で結んだ延長上の等比位置に、音響領域3
04の構成要素に対応する音像305の座標を割り当て
ることによって行うことが可能である。なお、音響領域
への写像は、聴覚の特性に合せて聴感に合うように変形
してもよい。図3では、2次元領域を例に説明したが、
本対応付けが3次元領域に容易に拡張できることはいう
までもない。
The correspondence between the drawing area and the acoustic area is
For example, as shown in FIG. 3, the midpoint of both ears of the user is the origin 3
01, and the component 303 on the origin and the drawing area 302
The acoustic region 3 is placed at the geometrical position on the extension connecting the coordinates of
This can be done by assigning the coordinates of the sound image 305 corresponding to the 04 constituent elements. Note that the mapping to the acoustic region may be modified so as to suit the auditory sense according to the characteristics of hearing. In FIG. 3, the two-dimensional area is described as an example,
It goes without saying that this association can be easily extended to the three-dimensional area.

【0020】なお、本方法を用いれば、各構成要素の位
置によって音の聞こえてくる方向が異なるため、複数の
構成要素が同時に選択された際には、同時に音を出力し
てもよい。
If this method is used, the direction in which the sound is heard differs depending on the position of each component. Therefore, when a plurality of components are selected at the same time, the sounds may be output simultaneously.

【0021】図4は、ウインドウシステムGUIの音響
提示例である。401は立体音響デバイスを有する携帯
情報端末を表している。401は、公知の立体音響生成
アルゴリズムを用いて立体音響を生成し、スピーカー4
02、403を用いて立体音象を出力する。404は、
液晶ディスプレイ等の表示画面である。また、405は
401における描画領域を表し、ウインドウシステムの
ウインドウやアイコン等の構成要素は、405の中に配
置されている。ここで406、407はウインドウ、4
08〜410はアイコンを表す。ただし、表示画面40
4は描画領域405より小さいため、404の外に配置
された構成要素は表示されていない。今、本発明の方法
を用いて音響領域を描画領域に重なるように配置し、例
えばウインドウシステムがユーザからウインドウ406
の位置を探索する命令を受け取った時、ウインドウに予
め割り当てておいた音をウインドウの例えば重心位置に
音像定位して出力する。これによって、ウインドウが表
示されていない場合でも、ウインドウの位置を判定する
ことが可能となる。なお、この際、音を出力すると同時
に画面をスクロールしてウインドウが配置されている位
置を表示してもよい。
FIG. 4 is an example of sound presentation of the window system GUI. Reference numeral 401 represents a personal digital assistant having a stereophonic device. A speaker 401 generates stereophonic sound using a known stereophonic sound generation algorithm.
A stereophonic image is output using 02 and 403. 404 is
It is a display screen such as a liquid crystal display. Further, 405 represents a drawing area in 401, and constituent elements such as windows and icons of the window system are arranged in 405. Here, 406 and 407 are windows, 4
08 to 410 represent icons. However, the display screen 40
Since 4 is smaller than the drawing area 405, the components arranged outside 404 are not displayed. Now, using the method of the present invention, the acoustic region is arranged so as to overlap the drawing region, and, for example, the window system allows the user to select the window 406.
When a command for searching the position of is received, the sound previously assigned to the window is localized and output as the sound image at the center of gravity of the window, for example. This makes it possible to determine the position of the window even when the window is not displayed. At this time, at the same time as outputting the sound, the screen may be scrolled to display the position where the window is arranged.

【0022】図5は、ウインドウシステムの各構成要素
と音声やサウンドとの対応付けの例である。例えば、ウ
インドウについては、カーソルがウインドウ上を通過し
ているときに常に該ウインドウに対応付けられたメロデ
ィを出力し、該ウインドウが選択された際にはメロディ
の出力と同時にウインドウ名を読み上る。また、メニュ
ーについては、メニュー上でカーソルを移動している際
はクリック音を出力し、カーソルが停止した際には停止
した位置のコマンド名を読み上げる。時計については、
カーソルが時計上に停止した際に柱時計の音を出力し、
選択された際には時間を読み上げる。ファイルについて
は、カーソル通過時にはパーカッション音、カーソル停
止時にはファイル名を読み上げる。フォルダについて
は、カーソル通過時と選択時でサウンドを変える等を行
う。このような対応付けによって、ウインドウシステム
の構成要素の内容や、位置、状態を判別することが可能
になる。
FIG. 5 shows an example of correspondence between each component of the window system and voice or sound. For example, for a window, the melody associated with the window is always output when the cursor is passing over the window, and when the window is selected, the window name is read at the same time when the melody is output. Regarding the menu, a click sound is output when the cursor is moving on the menu, and when the cursor stops, the command name at the stopped position is read aloud. For watches,
Outputs the wall clock sound when the cursor stops on the clock,
When selected, read out the time. For files, the percussion sound is heard when the cursor passes, and the file name is read when the cursor stops. For folders, the sound is changed when the cursor passes and when selected. Such correspondence makes it possible to determine the contents, positions, and states of the components of the window system.

【0023】図6は、携帯情報端末に地図情報を表示す
る1例である。図は、携帯情報端末を利用して建物の位
置を探索するアプリケーションを想定している。図6に
おいて、601は描画領域、および音響領域を表す。6
02はユーザの現在位置を示す。また、603〜605
は、例えば映画館等のランドマークの位置を表している
が、表示領域606の範囲外にあるため、表示されてい
ない。今ユーザが、現在位置付近の映画館の探索を指示
したとき、本発明の方法を用いて603、604、60
5位置に、映画館を表す音、または映画館の名称を読み
上げる音声を音像定位して順番に、あるいは同時に出力
する。これにより、ユーザは映画館が表示されていない
場合でも、地図全体をスクロールすることなく映画館の
位置を知ることが可能となる。
FIG. 6 shows an example of displaying map information on a portable information terminal. The figure assumes an application that searches the position of a building using a mobile information terminal. In FIG. 6, 601 represents a drawing area and an acoustic area. 6
02 indicates the current position of the user. Also, 603 to 605
Indicates the position of a landmark such as a movie theater, but is not displayed because it is outside the display area 606. Now, when the user gives an instruction to search for a movie theater near the current position, the method of the present invention is used to 603, 604, 60.
At 5 positions, the sound representing the movie theater or the voice reading the name of the movie theater is sound image localized and output in sequence or simultaneously. As a result, the user can know the position of the movie theater without scrolling the entire map even when the movie theater is not displayed.

【0024】図7は、携帯情報端末に地図情報を表示す
る他の例である。図7では、ユーザが描画領域かつ音響
領域である701内の地図上の現在位置702からみて
特定の方向に存在する建物を探索する場合を表してい
る。ここでは、表示画面703の周囲に8つのアイコン
を配置し、表示画面の中心に配置したユーザの現在位置
からみて、探索したい方向にあるアイコンを選択した際
に、その方向にある建物等のランドマークの名称を音声
で読み上げるか、または特定の音を出力することによっ
て、探索方向の現在表示されていないランドマークの位
置と種類を知ることが可能となる。今、アイコン704
をペン705で選択したとする。このとき、システム
は、領域706に含まれる建物707等のランドマーク
の名称を読み上げる音声や、ランドマークに予め割り当
ててある音を、ランドマークの地図上の位置に定位して
順番に出力する。
FIG. 7 shows another example of displaying map information on a portable information terminal. FIG. 7 shows a case where the user searches for a building existing in a specific direction when viewed from the current position 702 on the map in the drawing area and the acoustic area 701. Here, eight icons are arranged around the display screen 703, and when an icon in the direction to be searched is selected from the current position of the user who is arranged at the center of the display screen, a land such as a building in that direction is selected. By reading aloud the name of the mark or outputting a specific sound, it is possible to know the position and type of the landmark that is not currently displayed in the search direction. Now icon 704
Is selected by the pen 705. At this time, the system localizes the voice of reading the name of the landmark such as the building 707 included in the area 706 or the sound pre-assigned to the landmark to the landmark position on the map and outputs them in order.

【0025】図8は、携帯情報端末に三次元地図情報を
表示する1例である。図は、携帯情報端末を利用して地
図上の複数階建の建物内の部屋の位置を探索するアプリ
ケーションを想定している。図8において、(a)は携
帯情報端末、および建物を含む平面図を表しており、こ
の中で801は描画領域、および音響領域を表す。ここ
では、描画領域801内に配置されている地図内のある
建物802の1部屋803を探索するものとする。
(b)は、建物802の立体的な配置を表しており、こ
の例では、探索する部屋803は建物802の2階のフ
ロアーにある。今、ユーザが部屋803の名称を選択し
て探索する命令を入力した際に、アプリケーションが地
図内の建物802内の部屋803の位置および階を検索
し、これが現在表示されていない場合には、その位置
を、名称の読み上げや特定の音の音像定位で表現する。
このとき、平面的な位置は上下、左右の音像定位、階を
前後の奥行き感の音像定位で表すことによって、ユーザ
は探索した部屋の位置を知ることができる。
FIG. 8 shows an example of displaying three-dimensional map information on a mobile information terminal. The figure assumes an application that uses a mobile information terminal to search the position of a room in a multi-storey building on a map. In FIG. 8, (a) represents a plan view including a portable information terminal and a building, in which 801 represents a drawing area and an acoustic area. Here, it is assumed that one room 803 of a building 802 in a map arranged in the drawing area 801 is searched.
(B) represents the three-dimensional arrangement of the building 802, and in this example, the room 803 to be searched is on the second floor of the building 802. Now, when the user inputs a command to select and search for the name of the room 803, the application searches for the location and floor of the room 803 in the building 802 in the map, and if this is not currently displayed, The position is expressed by aloud the name or the sound image localization of a specific sound.
At this time, the planar position is represented by upper and lower, left and right sound image localization, and the floor is represented by front and rear sound image localization with a sense of depth, so that the user can know the position of the searched room.

【0026】[0026]

【発明の効果】描画領域上の構成要素に対し、その構成
要素の名称を読み上げる音声や、予め対応付けておいた
特定の音を、描画領域に対応付けた音響領域に音像定位
して出力することにより、表示領域外にあって不可視の
構成要素の位置や内容を、表示画面をスクロールするこ
となく取得することが可能になった。これにより、特に
表示画面を大きくすることの困難な携帯情報端末等にお
いて、画像情報を効果的に提示することが可能となる。
EFFECTS OF THE INVENTION With respect to a constituent element in a drawing area, a voice that reads the name of the constituent element or a specific sound that is associated in advance is sound image localized and output to the acoustic area associated with the drawing area. This makes it possible to acquire the positions and contents of invisible components outside the display area without scrolling the display screen. As a result, it becomes possible to effectively present the image information, especially on a portable information terminal or the like in which it is difficult to enlarge the display screen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の方法を実現するためのハードウエア構
成図である。
FIG. 1 is a hardware configuration diagram for implementing a method of the present invention.

【図2】描画領域上の構成要素を音響領域に音像定位す
る例を表す図である。
FIG. 2 is a diagram illustrating an example in which a sound element is localized in a sound area for components in a drawing area.

【図3】描画領域と音響領域との対応付けの例を説明す
る図である。
FIG. 3 is a diagram illustrating an example of association between a drawing area and an acoustic area.

【図4】ウインドウシステムの音響提示例を表す図であ
る。
FIG. 4 is a diagram illustrating an example of audio presentation of a window system.

【図5】ウインドウシステム構成要素の音声/サウンド
対応例を表す図である。
FIG. 5 is a diagram illustrating a voice / sound correspondence example of a window system component.

【図6】地図情報の音響提示例を説明する図である。FIG. 6 is a diagram illustrating an example of acoustic presentation of map information.

【図7】地図情報の音響提示例を説明する図である。FIG. 7 is a diagram illustrating an example of audio presentation of map information.

【図8】三次元地図情報の音響提示例を説明する図であ
る。
FIG. 8 is a diagram illustrating an example of audio presentation of three-dimensional map information.

【符号の説明】[Explanation of symbols]

106…システムバス、112…バス、201,302
…描画領域、202,203,303…構成要素、20
4,304…音響領域、205,206,305…音
像、207…使用者、301…原点、401…携帯情報
端末、402,403…スピーカー、404…表示画
面、406,407…ウインドウ、408〜410,7
04…アイコン、405,601,701,801…描
画領域かつ音響領域、602,702…ユーザの現在位
置、603〜605、707…ランドマーク、606,
703…表示領域、705…ペン、706…探索領域、
802…建物、803…部屋。
106 ... System bus, 112 ... Bus, 201, 302
... drawing area, 202, 203, 303 ... constituent element, 20
4, 304 ... Acoustic region, 205, 206, 305 ... Sound image, 207 ... User, 301 ... Origin, 401 ... Portable information terminal, 402, 403 ... Speaker, 404 ... Display screen, 406, 407 ... Window, 408-410 , 7
04 ... Icon, 405, 601, 701, 801 ... Drawing area and sound area, 602, 702 ... Current position of user, 603 to 605, 707 ... Landmark, 606
703 ... Display area, 705 ... Pen, 706 ... Search area,
802 ... building, 803 ... room.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G09G 5/14 9377−5H G09G 5/14 Z ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G09G 5/14 9377-5H G09G 5/14 Z

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】ディスプレイ画面に画像を表示する手段
と、立体音響を生成する手段と、立体音響を出力する手
段とを有する携帯情報端末装置を備え、上記ディスプレ
イ画面が表示する画像領域を内包する仮想的な描画領域
と該描画領域で表示可能な表示画像デ−タを配置し、該
表示画像デ−タに音響情報を割当て、該表示画像デ−タ
に対するアクセス要求が生じた際に、該表示画像デ−タ
に予め割当てた音を上記表示画像デ−タが位置する上記
描画領域中の所定の位置に音像定位させて出力すること
を特徴とする画像デ−タの音響提示方法。
1. A portable information terminal device having means for displaying an image on a display screen, means for generating stereophonic sound, and means for outputting stereophonic sound, including an image area displayed on the display screen. A virtual drawing area and display image data that can be displayed in the drawing area are arranged, acoustic information is assigned to the display image data, and when an access request to the display image data is made, A sound presentation method for image data, wherein a sound pre-assigned to the display image data is sound-localized and output at a predetermined position in the drawing area where the display image data is located.
【請求項2】該表示画像デ−タに対するアクセス要求が
生じた際に、描画領域中の該表示画像デ−タがディスプ
レイ画面が表示する画像領域外にある場合には、該表示
画像デ−タに予め割当てた音を上記ディスプレイ画面周
辺の所定の位置に音像定位して出力することを特徴とす
る請求項1に記載の画像デ−タの音響提示方法。
2. When an access request for the display image data is made and the display image data in the drawing area is outside the image area displayed by the display screen, the display image data is displayed. 2. The sound presentation method for image data according to claim 1, wherein the sound pre-assigned to the data is localized and output at a predetermined position around the display screen.
【請求項3】上記表示画像デ−タは3次元で表現された
デ−タであることを特徴とする請求項1または2に記載
の画像デ−タの音響提示方法。
3. The sound presentation method for image data according to claim 1, wherein the display image data is data expressed in three dimensions.
JP8003615A 1996-01-12 1996-01-12 Acoustic presentation method for image data Pending JPH09190544A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8003615A JPH09190544A (en) 1996-01-12 1996-01-12 Acoustic presentation method for image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8003615A JPH09190544A (en) 1996-01-12 1996-01-12 Acoustic presentation method for image data

Publications (1)

Publication Number Publication Date
JPH09190544A true JPH09190544A (en) 1997-07-22

Family

ID=11562405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8003615A Pending JPH09190544A (en) 1996-01-12 1996-01-12 Acoustic presentation method for image data

Country Status (1)

Country Link
JP (1) JPH09190544A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000039662A1 (en) * 1998-12-25 2000-07-06 Matsushita Electric Industrial Co., Ltd. Program selective execution device, data selective execution device, image display device, and channel selection device
JP2008005234A (en) * 2006-06-22 2008-01-10 Matsushita Electric Ind Co Ltd Information providing device and integrated circuit
JP2012169704A (en) * 2011-02-09 2012-09-06 Canon Inc Image information processor and control method of the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000039662A1 (en) * 1998-12-25 2000-07-06 Matsushita Electric Industrial Co., Ltd. Program selective execution device, data selective execution device, image display device, and channel selection device
JP2008005234A (en) * 2006-06-22 2008-01-10 Matsushita Electric Ind Co Ltd Information providing device and integrated circuit
JP2012169704A (en) * 2011-02-09 2012-09-06 Canon Inc Image information processor and control method of the same

Similar Documents

Publication Publication Date Title
CN111899706B (en) Audio production method, device, equipment and storage medium
JP3847641B2 (en) Information processing apparatus, information processing program, computer-readable recording medium storing information processing program, and information processing method
US5973697A (en) Method and system for providing preferred face views of objects in a three-dimensional (3D) environment in a display in a computer system
US20220028407A1 (en) Method and device for processing music file, terminal and storage medium
JP3276068B2 (en) Object selection method and system
WO2022007565A1 (en) Image processing method and apparatus for augmented reality, electronic device and storage medium
TW201201025A (en) Platform independent information handling system, communication method, and computer program product thereof
Renevier et al. Mobile collaborative augmented reality: the augmented stroll
Cohen Throwing, pitching and catching sound: audio windowing models and modes
CN114564604B (en) Media collection generation method and device, electronic equipment and storage medium
JP3340581B2 (en) Text-to-speech device and window system
JPH09190544A (en) Acoustic presentation method for image data
CN114520950B (en) Audio output method, device, electronic equipment and readable storage medium
WO2023061330A1 (en) Audio synthesis method and apparatus, and device and computer-readable storage medium
US20230370672A1 (en) Method for processing sound information, and non-transitory computer storage medium and electronic device
Steinicke et al. A generic virtual reality software system's architecture and application
Frauenberger et al. Interaction patterns for auditory user interfaces
JP4484570B2 (en) Acoustic information processing apparatus and acoustic information providing method
Mynatt et al. The Mercator Environment a Nonvisual Interface to X Windows and Unix Workstations
JPH07168691A (en) Selecting system for display graphic area
JPH10124295A (en) Method and device for representing access volume, and recording medium
WO2019044100A1 (en) Information processing apparatus, information processing method, and program
CN114329001B (en) Display method and device of dynamic picture, electronic equipment and storage medium
Frauenberger et al. Mode independent interaction pattern design
WO2024022432A1 (en) Information processing methods and apparatus, and electronic device