CN101872613A - 一种基于数字家庭的地理信息的可听化表达方法 - Google Patents
一种基于数字家庭的地理信息的可听化表达方法 Download PDFInfo
- Publication number
- CN101872613A CN101872613A CN201010200898A CN201010200898A CN101872613A CN 101872613 A CN101872613 A CN 101872613A CN 201010200898 A CN201010200898 A CN 201010200898A CN 201010200898 A CN201010200898 A CN 201010200898A CN 101872613 A CN101872613 A CN 101872613A
- Authority
- CN
- China
- Prior art keywords
- information
- sound
- mapping
- expression
- synthetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 38
- 230000010365 information processing Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 4
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000005065 mining Methods 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 abstract description 2
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000007654 immersion Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 230000019771 cognition Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001028 reflection method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000002269 spontaneous effect Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000009527 percussion Methods 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 235000012364 Peperomia pellucida Nutrition 0.000 description 1
- 240000007711 Peperomia pellucida Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000366 juvenile effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000010415 tropism Effects 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
Abstract
本发明实施例公开了一种基于数字家庭的地理信息的可听化表达方法,包括:步骤1:信息的获取,即进行声源的确定;步骤2:信息的处理,将各种信息作规范化处理,形成后续处理的应用数据,即特征数据;步骤3:信息映射;允许各种输入信号找到相应的映射规则,达到可听化的目的,根据特征数据的不同采用不同的映射模型得到参数化声音;步骤4:声音合成,形成参数化声音;步骤5:声音的播放。通过实施本发明,在信息突变状态以及视觉通道负荷过重等场合优于其他通道,其表达在地理信息的语音阅读、氛围营造、沉浸表达等方面表现优异。
Description
技术领域
本发明涉及数字家庭技术领域,具体涉及一种基于数字家庭的地理信息的可听化表达方法。
背景技术
地理信息系统(Geographic Information System,简称GIS)作为获取、整理、分析和管理地理空间数据的重要工具、技术和学科,近年来得到了广泛关注和迅猛发展。由于信息技术的发展,数字时代的来临,到今天已经逐渐成为一门相当成熟的技术,并且得到了极广泛的应用。尤其是近些年,GIS更以其强大的地理信息空间分析功能,在GPS及路径优化中发挥着越来越重要的作用。GIS地理信息系统是以地理空间数据库为基础,在软硬件的支持下,运用系统工程和信息科学的理论,科学管理和综合分析具有空间内涵的地理数据,以提供管理、决策、以及应用服务等所需信息的技术系统。
可视化应用(Visualization Application)以数字家庭应用为基础,建立城市、区域、或大型建筑工程、著名风景名胜区的可视化模型,与数字电视应用后台结合,实现实景模型浏览实时浏览地理环境、地理信息查询以及购物等一些互动应用服务功能。可听化研究起源于20世纪50年代,21世纪初因计算机信息技术的发展成为研究热点。狭义的可听化是指用非语音信号表达信息,它立足于计算机信息论,侧重于科学数据听觉表达;广义的可听化是为了信息交流或数据解释,将某科学领域的数据联系转化为以听觉信号表现的感知联系,用人类可辨析的声音信号表达信息。可听化有利于人们独立获取或帮助理解从视觉通道获取的信息,是一门涉及认知、声学、艺术、工程学等方面的交叉学科。20世纪90年代可听化开始应用于地理信息表达,除可为有视觉障碍的用户提供表达替代方式外,还广泛应用于地理信息系统和多媒体图集中的音视频和文本注记解说、3维虚拟仿真、车辆语音导航、少儿地理教育等诸多系统和产品中。
在对此方法的研究和实践过程中,本发明的发明人发现:虽然可视化一直是表达空间信息强有力的工具,网络通信、多媒体以及三维图像等高新科技的融入更使地理信息可视化表达异彩纷呈。但是,海量数据呈现于方寸屏幕间,造成了视觉显示繁杂、地图视觉载负量巨增等矛盾。计算机可听化技术的发展,使听觉获取数据成为可能,并为地理信息提供了新的表达方式。在现实世界中,人类视听觉相得益彰,听觉也是获取信息的重要途径,重要性仅次于视觉。有声信息时刻潜移默化被接收,人类多通道的感知避免了信息单通道过载和信息获取单一化。听觉具有本能或自发感知的独特功效,一些可听化的研究领域正在证明或已经证明:听觉通道在某些领域的应用中优于其他通道,特别是在重要的信息突变状态以及视觉通道负荷过重等场合。可听化独立表达或辅助视觉表达,对地理信息传递、表达及认知具有重大意义和实践价值,在解决视觉感知过载,多重界面、大屏幕显示以及信息突发、临界表达等问题方面尤为重要。于是本发明的发明人决定使用一种基于数字家庭的地理信息的可视可听化方法,结合可视可听的优点来设计。
发明内容
本发明提供一种基于数字家庭的地理信息的可听化方法,能够独立表达或辅助视觉表达,对地理信息传递、表达及认知具有重大意义和实践价值,在解决视觉感知过载,多重界面、大屏幕显示以及信息突发、临界表达等问题方面尤为重要,这样使可视可听达到平衡。
本发明实施例提供了一种基于数字家庭的地理信息的可听化表达方法,包括:
步骤1:信息的获取,即进行声源的确定;
步骤2:信息的处理,将各种信息作规范化处理,形成后续处理的应用数据,即特征数据;
步骤3:信息映射;允许各种输入信号找到相应的映射规则,达到可听化的目的,根据特征数据的不同采用不同的映射模型得到参数化声音;
步骤4:声音合成,形成参数化声音;
步骤5:声音的播放。
所述声音的合成采用的方法分直接合成和间接合成,其中:直接合成参照的是傅立叶分析,间接合成则是收到Chernoff模型的影响。
所述声音的播放通过Window API、DirectSound、DirectSound3D中的一种或者多种来实现。
由于本发明实施例采用一种基于数字家庭的地理信息的可听化表达,听觉具有本能或自发感知的独特功效。因此多通道的感知避免了信息单通道过载和信息获取单一化,计算机等高新技术提供的良好平台为可听化表达提供了新契机。它的独立表达或辅助表达,在信息突变状态以及视觉通道负荷过重等场合优于其他通道,其表达在地理信息的语音阅读、氛围营造、沉浸表达等方面表现优异。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中的地理信息可视化和可听化表达实现流程图;
图2是本发明实施例中的地理信息可听化表达实现流程图;
图3是本发明实施例中的地理信息的可听化应用分类示意图;
图4是本发明实施例中的离散无结构映射示意图;
图5是本发明实施例中的结构化离散信息映射示意图;
图6是本发明实施例中的高维点数据直接映射法示意图;
图7是本发明实施例中的高维点数据间接映射法示意图。
具体实施方式
本发明实施例提供一种基于数字家庭的地理信息的可听化表达方法,能为各单位之间的电子政务信息提供共享。以下分别进行详细说明。
本发明实施例提供一种数字家庭的地理信息的可听化方法,能够独立表达或辅助视觉表达,对地理信息传递、表达及认知具有重大意义和实践价值,在解决视觉感知过载,多重界面、大屏幕显示以及信息突发、临界表达等问题方面尤为重要。本发明实施例还提供相应地理信息可听化表达实现系统。以下分别进行详细说明。
完整的地理信息的可视可听流程图如图1所示,其中完整的地理信息的可听表达流程如图2所示。地理数据通过可听化映射出符合人类听觉认知的声音,由听觉感知通道被聆听者所获取。地理信息可听化应用广泛、前景广阔,对此综述如图3所示。一个完整的可听化表达体系包括信息提取、信息处理、声音映射、声音合成和声音播放等5部分。从地理专题数据中提取所需数据后,由等级数值过滤干扰信息并提取特征数据,然后通过数据到声音映射输出声音参数,最后参数合成声音,输出采样值。
地理信息的可听表达各步骤具体如下:
步骤1:信息的获取(声源的确定)
声源的确定即声音数据的存储及与空间实体的对应关系的确定。声音数据一般是以文件或资源的方式存储的,原则上不同的声音对象分别对应不同的空间实体,因此数据获取模块是采集各种数据源的数据,这些数据可以是离散的,也可以是连续的,可以是一维的也可以是高维的。
步骤2:信息的处理
经过步骤1我们得到了各种原始数据,由于各种原始数据的结构不尽相同,我们需要将各种信息作规范化处理,形成我们可以做后续处理的的应用数据,即特征数据。
步骤3:信息映射
在可听化应用最重要的是有关的映射模型,所谓映射模型如图一所示,是允许各种输入信号:无结构离散的,结构离散的、图形的图象的。他们都可以在这个模型中找到相应的映射规则,达到可听化的目的。输出的则是各种参数化的声音这些声音可以是连续的,也可以是离散的,即它们的分辨颗粒度可以改变。不同的输入数据集,其映射的规则不相同。其最重要的检验标准就是,要使声音信息表达的能力得到最大发挥。一般映射模型如下所述:
无结构离散化信息的映射是各种映射中最简单的。相当于点对点的映射,例如事件A对应为声音a,事件B对应与声音n。诸如此类,最简单也是最常见的就是windows系统中经常出现的伴随警告信息出现的警告声音。听标是这一类映射的典型例子。这种映射最大的要求就是要是这种一对一的映射尽量自然符合人们交互的习惯。图4所示的是离散无结构信息的映射模型。
对于结构化离散信息的映射,首先必须指定一套对应于结构化信息的映射规则,当任意一个属于该信息集的信息输入时,可以按照这种规则自动的生成参数化的可听信号。耳标就是明显的例子。这种映射方法应该在符合人们交互习惯的同时,具备更强的自适应能力,即如果结构发生了一定的变化,应该可以根据规则生成器生成新的映射规则。例如目录增加了一层,那么构成耳标的映射规则应该自动发生改变,构造出新的映射规则,同时又要对用户产生较小的影响。图5所示的是结构化离散信息映射模型。
一维连续信息的表达在可听化中是最简单的,因为声音本身就可以看作幅度随时间的变化,因此可以直接将连续信号的值直接映射到声音的幅度或者频率上。一维连续数据从数据集本质上来讲是多维点信号的一种特例。那么多维点数据的可听化可以使用我们在参数化声音章中所采用的加法合成的直接映射法、也可以使用参照Chernoff模型的间接映射法,选择合适的中间参数来控制标准的声音以达到映射的目的。图6、图7分别为多维点数据的直接映射模型和间接映射模型。
从步骤2中根据特征数据的不同采用不同的映射模型得到参数化声音。
步骤4:声音合成
经过步骤3之后形成的参数化声音,声音的合成采用的方法分直接合成和间接合成。直接合成参照的是傅立叶分析,间接合成则是收到Chernoff模型的影响。
直接合成
利用傅立叶变换的谱线合成声音相当于使用正弦信号线性合成原来的时域波形,比如我们通过奇次整数频率来合成原来的声音信号的话,可以使用原信号频率的奇次整数倍正弦信号来合成原来的方波信号。
使用傅立叶分析声音信号将产生一个频谱,在物理世界的任意一个声音信号都可以使用正弦曲线的组合来表示,但是组成这种组合的正弦曲线的数目可能趋向无穷大,我们需要在精度和计算量上作一个折中。如果一个数字采样信号的长度为N个采样点,需要使用N/2个正弦曲线来表示这个这个信号。声音信号按照他们的不同频谱分为分为和声,非和声和噪声,和声从频谱来看,他们的谱线只包括基频的整数倍,它给人强烈的频率的感觉,非和声的频谱,给人比较微弱的频率的感觉。很多打击乐器例如鼓、锣、和钟产生的都是非和声,噪声在频谱上表现没有明显的谱线,在听觉上给人的感觉就是没有固定的音高(频率)某些打击乐器和辅音都是这些噪音的代表。真实世界的声音都是由这三种声音按照不同的组成比例构成的。
如果我们要合成一个声音的话,可以模拟上面的过程,也可以使用不同的振荡器发出不同的频率〔当然频率可以固定也可以在一定范围内改动),再使用幅度控制设备对幅度进行控制,最后将这些声音合成(以零坐标为原点进行相加)起来。
间接合成
在科学计算可视化中映射多维点数据时,人们采用的另一种方法是Chernoff脸法[石教英1995],Chernoff设计了一个可以代表12个信息分量的脸,将各维数据映射到控制脸部不同部分器官的形状的变形量,那么由于在物体分类时一些数据集聚效果将映射到Chernoff脸的几种表情,人们就此可以判断物体的模式,以达到对数据特征本能和自发的感知过程的目的。与此类同,如果我们可以设计一个Chernoff的标准声。将多维点数据分别映射到该声音的频率、幅度、时长、位置、谐波成分。那么同样根据调制后的Chernoff声我们也可以作类似分类的判决。为了利用以往人们对音乐的知识能够在以后的可听化设计中发挥作用,因为用户的听觉模型是以用户的音乐模型作为基础的[方志刚1997],我们采用了A4(440Hz)作为标准音。
步骤5:声音的播放
1)用Window API
在Window API的支援下,播放小段wAV档的最佳方案就是使用PlaySound()函数。PlaySound()的第1个限制是wAV档案的大小;第2个限制是混音的功能,它每次只能播放一个声音对象;第3个限制是无法体现位置感和空间感,只有音量的大小感觉。
2)用DirectSound
在DirectSound中,基本操作单元是声音缓冲区对象,一种声音对应一个从缓冲区声音对象。所有播放的从缓冲区声音对象都在主缓冲区中进行混音后播放。DectSoundBuffer对象允许控制从缓冲区对象的3个属性:频率、容量和均衡。其函数主要有,SetFrequency()设置频率,SetPan()设置均衡值,SetVolume()设置音量。利用DirectSound配合双声道播放方式,可以实现距离感、左右方向感、音量的变化、声源的运动及混音的效果。根据声源距听者的距离远近而调整音量;通过衰减一边声道的音量或改变均衡值来表现声源的左右方向性;通过增减运动声源的频率来产生多普勒效果等。
3)使用DirectSound3D
DirectSound3D使播放的声音从立体声扩展到了3D声音,放置声源的空间坐标系就是Direct3D所用的坐标系。它主要包括DirectSound3Dbuffer8以及与此相关的DirectSound3Dlistener8两个对象。DirectSound3Dbuffer8用于控制单个声源的3D属性,即从缓冲区声音对象。其函数主要包括SetPosition()设置声源的位置、SetConeOrientation()设置音锥的方向、SetConeAngles()设置音锥的内外角度、SetConeOutsideVolume()设置音锥的外部音量、SetMaxDistance()设置最大距离值、SetMinDistance()设置最小距离值以及SetVelocity()设置声源的速度等。DirectSound3Dlistener8用于放置虚拟的听者,管理3D声音场景的整体属性。其函数主要有SetPosition()设置听者位置、SetOrientation()设置听者方向、SetVelocity()设置听者速度因子、SetDistanceFactor()设置听者距离因子以及SetDopplerFactor()设置听者多普勒效果因子等。真正实现DirectSound3D,必须配合多音箱的环绕声系统。
需要说明的是,上述装置和系统内的各单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁盘或光盘等。
以上对本发明实施例所提供的一种数字家庭的地理信息的可视可听化方法,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (3)
1.一种基于数字家庭的地理信息的可听化表达方法,其特征在于,包括:
步骤1:信息的获取,即进行声源的确定;
步骤2:信息的处理,将各种信息作规范化处理,形成后续处理的应用数据,即特征数据;
步骤3:信息映射;允许各种输入信号找到相应的映射规则,达到可听化的目的,根据特征数据的不同采用不同的映射模型得到参数化声音;
步骤4:声音合成,形成参数化声音;
步骤5:声音的播放。
2.如权利要求1所述的方法,其特征在于,所述声音的合成采用的方法分直接合成和间接合成,其中:直接合成参照的是傅立叶分析,间接合成则是收到Chemoff模型的影响。
3.如权利要求1或者2所述的方法,其特征在于,所述声音的播放通过WindowAPI、DirectSound、DirectSound3D中的一种或者多种来实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010200898A CN101872613A (zh) | 2010-06-12 | 2010-06-12 | 一种基于数字家庭的地理信息的可听化表达方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010200898A CN101872613A (zh) | 2010-06-12 | 2010-06-12 | 一种基于数字家庭的地理信息的可听化表达方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101872613A true CN101872613A (zh) | 2010-10-27 |
Family
ID=42997431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010200898A Pending CN101872613A (zh) | 2010-06-12 | 2010-06-12 | 一种基于数字家庭的地理信息的可听化表达方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101872613A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000765A (zh) * | 2007-01-09 | 2007-07-18 | 黑龙江大学 | 基于韵律特征的语音合成方法 |
CN101202595A (zh) * | 2007-12-03 | 2008-06-18 | 清华大学 | 一种发布和接收交通与出行信息并导航的方法及系统 |
-
2010
- 2010-06-12 CN CN201010200898A patent/CN101872613A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000765A (zh) * | 2007-01-09 | 2007-07-18 | 黑龙江大学 | 基于韵律特征的语音合成方法 |
CN101202595A (zh) * | 2007-12-03 | 2008-06-18 | 清华大学 | 一种发布和接收交通与出行信息并导航的方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈育伟: "基于参数化声音的信息可听化技术研究", 《中国优秀硕士学位论文全文数据库》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vickers et al. | Sonification Abstraite/Sonification Concr\ete: An'Aesthetic Perspective Space'for Classifying Auditory Displays in the Ars Musica Domain | |
EP3092642B1 (en) | Spatial error metrics of audio content | |
JP6239145B2 (ja) | 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 | |
Fowler | Soundscape as a design strategy for landscape architectural praxis | |
Vickers | Ways of listening and modes of being: Electroacoustic auditory display | |
CN106170992A (zh) | 基于对象的音频响度管理 | |
US9613617B1 (en) | Auditory eigenfunction systems and methods | |
US11875770B2 (en) | Systems and methods for selectively providing audio alerts | |
Barrett | Interactive spatial sonification of multidimensional data for composition and auditory display | |
Blauert | Conceptual aspects regarding the qualification of spaces for aural performances | |
Bardelli et al. | A sonification of the zCOSMOS galaxy dataset | |
Hogg et al. | Sonification abstraite/sonification concrete: An'aesthetic persepctive space'for classifying auditory displays in the ars musica domain | |
CN108701461A (zh) | 用于具有多个反射的声源的改进的立体混响编码器 | |
KR101516644B1 (ko) | 가상스피커 적용을 위한 혼합음원 객체 분리 및 음원 위치 파악 방법 | |
US9445210B1 (en) | Waveform display control of visual characteristics | |
Bardelli et al. | A sonification of the zCOSMOS galaxy dataset | |
CN101872613A (zh) | 一种基于数字家庭的地理信息的可听化表达方法 | |
Lagrange et al. | Semi-automatic mono to stereo up-mixing using sound source formation | |
CN104954369A (zh) | 多媒体内容的发送、生成和传输、播放方法和对应装置 | |
Kim et al. | Immersive virtual reality audio rendering adapted to the listener and the room | |
Kang | Sonic Hypermirror: Attuning to Hyperobjects | |
Morrell et al. | Dynamic panner: An adaptive digital audio effect for spatial audio | |
Pelletier | Perceptually Motivated Sonification of Moving Images | |
Holbrook | Sonic Design and Spatial Features | |
Rabello-Mestre et al. | Listening to the Anthropocene: A Queda do Céu |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20101027 |