JP5598981B2 - Perceptual stimulus information generation system - Google Patents

Perceptual stimulus information generation system Download PDF

Info

Publication number
JP5598981B2
JP5598981B2 JP2010232035A JP2010232035A JP5598981B2 JP 5598981 B2 JP5598981 B2 JP 5598981B2 JP 2010232035 A JP2010232035 A JP 2010232035A JP 2010232035 A JP2010232035 A JP 2010232035A JP 5598981 B2 JP5598981 B2 JP 5598981B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
information
dimensional
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010232035A
Other languages
Japanese (ja)
Other versions
JP2012084096A (en
Inventor
恭太 青木
正樹 木村
慎二郎 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Utsunomiya University
Original Assignee
Utsunomiya University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utsunomiya University filed Critical Utsunomiya University
Priority to JP2010232035A priority Critical patent/JP5598981B2/en
Publication of JP2012084096A publication Critical patent/JP2012084096A/en
Application granted granted Critical
Publication of JP5598981B2 publication Critical patent/JP5598981B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、知覚刺激情報生成システム、知覚刺激情報生成方法及び知覚刺激情報生成プログラムに関する。   The present invention relates to a perceptual stimulus information generation system, a perceptual stimulus information generation method, and a perceptual stimulus information generation program.

従来、視覚障害者が触覚を利用して2次元的な情報を取得できるようにした出力装置としてピンディスプレイが知られている。ピンディスプレイは、二次元に配列された複数のピンを上下させることによって、凹凸によりコンピュータの文字情報や図形情報などを表示するディスプレイである。また、ピンディスプレイをコンピュータマウスに設けることによって、マウスの動きに応じた触覚情報をユーザの指先にフィードバックできる触覚マウスも知られている(例えば特許文献1参照)。   Conventionally, a pin display is known as an output device that enables a visually handicapped person to acquire two-dimensional information using tactile sensation. The pin display is a display that displays computer character information, graphic information, and the like by unevenness by moving up and down a plurality of pins arranged two-dimensionally. In addition, a tactile mouse that can feed back tactile information according to the movement of the mouse to the user's fingertip by providing a pin display on the computer mouse is also known (see, for example, Patent Document 1).

更に、テレビ画像データ等の2次元画像データを触覚によって認識できるようにした振動型表示パネルも考案されている(例えば特許文献2参照)。この振動型表示パネルでは、表示画素に対応する電圧を振動素子に印加することによって振動が生成されている。   Furthermore, a vibration type display panel that can recognize two-dimensional image data such as television image data by tactile sense has been devised (for example, see Patent Document 2). In this vibration type display panel, vibration is generated by applying a voltage corresponding to the display pixel to the vibration element.

特開2009−086229号公報JP 2009-086229 A 特開平7−306634号公報Japanese Patent Laid-Open No. 7-306634

ピンディスプレイには、高価である、重量が大きい、解像度が低い、出力可能な情報に制限があるといった問題がある。また、触覚マウスは、絶対位置の認識が困難であるという問題がある。更に、振動型表示パネルは、構造が複雑で高価であるという問題がある。   The pin display has problems such as being expensive, heavy, low resolution, and limited information that can be output. In addition, the tactile mouse has a problem that it is difficult to recognize the absolute position. Further, the vibration type display panel has a problem that the structure is complicated and expensive.

また、共通の課題として、画像等の2次元情報を盲目者、弱視者及び色覚障害者等の視覚障害者に対して、より感覚的に分かり安く伝達することが望まれる。一方、視覚に障害がない対象者であっても、2次元情報を視覚以外の知覚を併用して感覚的に分かり安く伝達できれば、情報伝達を効果的に行うことができる。   Further, as a common problem, it is desired to transmit two-dimensional information such as an image to a visually impaired person such as a blind person, a weakly-sighted person, and a color-blind person, more intuitively and cheaply. On the other hand, even if the subject has no visual impairment, information transmission can be effectively carried out if two-dimensional information can be transmitted sensuously and inexpensively in combination with perception other than vision.

本発明は、触覚等の視覚以外の知覚を利用することによって、2次元情報をユーザにより分かり安く伝達することが可能な知覚刺激情報生成システム、知覚刺激情報生成方法及び知覚刺激情報生成プログラムを提供することを目的とする。   The present invention provides a perceptual stimulus information generation system, a perceptual stimulus information generation method, and a perceptual stimulus information generation program capable of transmitting two-dimensional information at a lower cost by using a perception other than vision such as tactile sense. The purpose is to do.

本発明の実施形態に係る知覚刺激情報生成システムは、種類判定手段、情報変換手段及び制御手段を備える。種類判定手段は、2次元画像を取得して前記2次元画像の種類を判定する。情報変換手段は、前記2次元画像に含まれるテキスト画像データをぼかす処理及び前記2次元画像に含まれる特定の色領域の拡張処理の少なくとも一方を含む画像変換処理であって、前記2次元画像の種類に応じた前記2次元画像に対する画像変換処理によって、前記2次元画像の指定位置に対応する単位領域における特徴を表す特徴情報を生成する。制御手段は、前記特徴情報に応じた知覚刺激が前記2次元画像のユーザに付与されるように知覚刺激装置を制御する。 The perceptual stimulus information generation system according to the embodiment of the present invention includes a type determination unit, an information conversion unit, and a control unit. Type determination means determines the type of the 2-dimensional images by acquiring two-dimensional images. The information conversion means is an image conversion process including at least one of a process of blurring text image data included in the two-dimensional image and an expansion process of a specific color region included in the two-dimensional image . The feature information representing the feature in the unit area corresponding to the designated position of the two-dimensional image is generated by the image conversion process on the two-dimensional image according to the type. The control unit controls the perceptual stimulus device so that a perceptual stimulus according to the feature information is given to the user of the two-dimensional image .

また、本発明の実施形態に係る知覚刺激情報生成方法は、2次元画像を取得して前記2次元画像の種類を判定するステップと、前記2次元画像に含まれるテキスト画像データをぼかす処理及び前記2次元画像に含まれる特定の色領域の拡張処理の少なくとも一方を含む画像変換処理であって、前記2次元画像の種類に応じた前記2次元画像に対する画像変換処理によって、前記2次元画像の指定位置に対応する単位領域における特徴を表す特徴情報を生成するステップと、前記特徴情報に応じた知覚刺激が前記2次元画像のユーザに付与されるように知覚刺激装置を制御するステップとを有する。 Furthermore, sensory stimulation information generating method according to an embodiment of the present invention includes the steps of determining the type of the acquired by the two-dimensional image a two-dimensional image, blurring the text image data included in the two-dimensional image processing and the an image conversion process includes at least one expansion process of a specific color region included in the two-dimensional image, the image conversion processing with respect to the two-dimensional image corresponding to the type of the two-dimensional image, designation of the two-dimensional image Generating feature information representing a feature in a unit region corresponding to the position; and controlling the perceptual stimulus device so that a perceptual stimulus corresponding to the feature information is given to the user of the two-dimensional image .

また、本発明の実施形態に係る知覚刺激情報生成プログラムは、コンピュータを上述の種類判定手段、情報変換手段及び制御手段として機能させる。   The perceptual stimulus information generation program according to the embodiment of the present invention causes a computer to function as the above-described type determination unit, information conversion unit, and control unit.

本発明の第1の実施形態に係る知覚刺激情報生成システムの機能ブロック図。The functional block diagram of the perceptual stimulus information generation system which concerns on the 1st Embodiment of this invention. 図1に示す画像変換部において画像変換処理として1階微分処理を行った例を示す図。The figure which shows the example which performed the 1st-order differentiation process as an image conversion process in the image conversion part shown in FIG. 図1に示す画像変換部において画像変換処理として2階微分処理を行うことが有効な2次元画像の例を示す図。The figure which shows the example of the two-dimensional image in which it is effective to perform a 2nd-order differentiation process as an image conversion process in the image conversion part shown in FIG. 図1に示す画像変換部において画像変換処理として2値化処理及び輪郭抽出処理を行った例を示す図。The figure which shows the example which performed the binarization process and the outline extraction process as an image conversion process in the image conversion part shown in FIG. 図1に示す画像変換部において画像変換処理として空間周波数の補正処理を行った例を示す図。The figure which shows the example which performed the correction process of the spatial frequency as an image conversion process in the image conversion part shown in FIG. 図1に示す画像変換部において画像変換処理としてテキスト画像データをぼかす処理を行った例を示す図。The figure which shows the example which performed the process which blurs text image data as an image conversion process in the image conversion part shown in FIG. 図1に示す画像変換部において画像変換処理として特定の色で着色された領域を抽出する処理を行った例を示す図。The figure which shows the example which performed the process which extracts the area | region colored with the specific color as an image conversion process in the image conversion part shown in FIG. 図1に示す画像変換部において画像変換処理として特定の色領域の拡張処理を行った例を示す図。The figure which shows the example which performed the expansion process of the specific color area as an image conversion process in the image conversion part shown in FIG. 図1に示す刺激制御部において波数が3つのトーンバース波形を有する制御信号を生成した例を示す図。The figure which shows the example which produced | generated the control signal which has a tone-verse waveform with three wave numbers in the stimulus control part shown in FIG. 図1に示す刺激制御部において波の高さが周期的に変化する波形を有する制御信号を生成した例を示す図。The figure which shows the example which produced | generated the control signal which has a waveform from which the height of a wave changes periodically in the stimulus control part shown in FIG. 図1に示す画像変換部における画像変換処理及び刺激制御部における制御信号の生成処理の具体例を示す図。The figure which shows the specific example of the image conversion process in the image converter shown in FIG. 1, and the production | generation process of the control signal in a stimulus control part. 入出力端子を備えたマイクロコンピュータの演算装置を用いて知覚刺激情報生成システムを構成した例を示す図。The figure which shows the example which comprised the perceptual stimulus information generation system using the arithmetic unit of the microcomputer provided with the input / output terminal. 図1に示す知覚刺激情報生成システムにより、コンピュータのディスプレイに表示された2次元画像を知覚刺激として出力する際の流れを示すフローチャート。The flowchart which shows the flow at the time of outputting the two-dimensional image displayed on the display of a computer as a perceptual stimulus by the perceptual stimulus information generation system shown in FIG. 本発明の第2の実施形態に係る知覚刺激情報生成システムの構成図。The block diagram of the perceptual stimulus information generation system which concerns on the 2nd Embodiment of this invention. 図14に示すマイクロコンピュータの機能ブロック図。The functional block diagram of the microcomputer shown in FIG.

本発明の実施形態に係る知覚刺激情報生成システム、知覚刺激情報生成方法及び知覚刺激情報生成プログラムについて添付図面を参照して説明する。   A perceptual stimulus information generation system, a perceptual stimulus information generation method, and a perceptual stimulus information generation program according to embodiments of the present invention will be described with reference to the accompanying drawings.

(第1の実施形態) (First embodiment)

図1は本発明の第1の実施形態に係る知覚刺激情報生成システムの機能ブロック図である。   FIG. 1 is a functional block diagram of a perceptual stimulus information generation system according to the first embodiment of the present invention.

知覚刺激情報生成システム1は、2次元画像に応じた知覚刺激をユーザに与えることによって視覚を用いることなくユーザに2次元画像に関する情報を伝達するシステムである。図1に示す知覚刺激情報生成システム1は、パーソナルコンピュータや携帯電話等のコンピュータ2において表示される2次元画像に応じて知覚刺激を発生させる場合の構成例を示している。   The perceptual stimulus information generation system 1 is a system that conveys information related to a two-dimensional image to the user without using vision by giving the user a perceptual stimulus according to the two-dimensional image. A perceptual stimulus information generation system 1 shown in FIG. 1 shows a configuration example in the case where perceptual stimuli are generated according to a two-dimensional image displayed on a computer 2 such as a personal computer or a mobile phone.

知覚刺激情報生成システム1は、データ処理系3及び知覚刺激装置4を備えている。   The perceptual stimulus information generation system 1 includes a data processing system 3 and a perceptual stimulus device 4.

データ処理系3は、コンピュータ2において表示される2次元画像データに応じた制御信号を生成し、生成した制御信号を知覚刺激装置4又はコンピュータ2に備えられる所望のデバイスに出力することによって、知覚刺激装置4又はコンピュータ2を制御する機能を有する。このデータ処理系3は、コンピュータ2の演算装置5に知覚刺激情報生成プログラムを読み込ませることによって構築することができる。具体的には、データ処理系3は、コンピュータ2の演算装置5を画像種類判定部3A、画像変換部3B及び刺激制御部3Cとして機能させたものである。但し、データ処理系3を構成するために回路を用いてもよい。   The data processing system 3 generates a control signal corresponding to the two-dimensional image data displayed on the computer 2, and outputs the generated control signal to the perceptual stimulation device 4 or a desired device provided in the computer 2, thereby performing perception. It has a function of controlling the stimulation device 4 or the computer 2. The data processing system 3 can be constructed by causing the arithmetic device 5 of the computer 2 to read a perceptual stimulus information generation program. Specifically, the data processing system 3 causes the arithmetic device 5 of the computer 2 to function as an image type determination unit 3A, an image conversion unit 3B, and a stimulus control unit 3C. However, a circuit may be used to configure the data processing system 3.

知覚刺激情報生成プログラムは、コンピュータ2を知覚刺激情報生成システム1のデータ処理系3として利用できるように情報記録媒体に記録してプログラムプロダクトとして流通させることができる。もちろん、情報記録媒体を介さずにネットワーク経由で知覚刺激情報生成プログラムをコンピュータ2にダウンロードすることもできる。   The perceptual stimulus information generation program can be recorded on an information recording medium and distributed as a program product so that the computer 2 can be used as the data processing system 3 of the perceptual stimulus information generation system 1. Of course, the perceptual stimulus information generation program can be downloaded to the computer 2 via a network without using an information recording medium.

コンピュータ2には、演算装置5の他、位置入力装置6、ディスプレイ7、指示入力装置8及び振動スピーカ9が備えられる。また、コンピュータ2の演算装置5は、本来の機能として、表示画像生成部10として機能する。   In addition to the arithmetic device 5, the computer 2 includes a position input device 6, a display 7, an instruction input device 8, and a vibration speaker 9. The arithmetic device 5 of the computer 2 functions as the display image generation unit 10 as an original function.

ディスプレイ7は、2次元画像を表示することが可能なモニタである。従って、ユーザが視覚を用いない場合には、ディスプレイ7を省略してもよい。   The display 7 is a monitor capable of displaying a two-dimensional image. Therefore, the display 7 may be omitted when the user does not use vision.

表示画像生成部10は、ディスプレイ7に表示させるための2次元画像データを生成する機能と、生成した2次元画像データをディスプレイ7に与えることによって、ディスプレイ7に2次元画像を表示させる機能を有する。   The display image generation unit 10 has a function of generating two-dimensional image data to be displayed on the display 7 and a function of displaying the two-dimensional image on the display 7 by giving the generated two-dimensional image data to the display 7. .

位置入力装置6は、ディスプレイ7上に表示された2次元画像の絶対的な2次元位置を指定し、指定位置情報としてコンピュータ2に入力する機能を有する。図1には、ディスプレイ7と位置入力装置6を層状に配置して一体に構成したタッチパネル11をコンピュータ2に備えた例を示す。   The position input device 6 has a function of designating an absolute two-dimensional position of a two-dimensional image displayed on the display 7 and inputting it to the computer 2 as designated position information. FIG. 1 shows an example in which a computer 2 includes a touch panel 11 in which a display 7 and a position input device 6 are arranged in a layered structure.

タッチパネル11には、複数の方式があり、任意の方式を用いることができる。具体的には、タッチパネル11には、抵抗膜方式、表面弾性波方式(超音波方式)、赤外線方式(光学式)、電磁誘導方式、静電容量方式等の方式がある。タッチパネル11の方式には、主にタッチペン等の指以外の指示道具を用いて位置情報を入力できる方式と、指又は指と同等の物理的特性を有する指示道具でなければ位置情報を入力できない方式とがある。この他、電磁誘導方式の場合には、位置情報を入力するために専用の電磁誘導ペンが必要である。   The touch panel 11 has a plurality of methods, and any method can be used. Specifically, the touch panel 11 includes a resistive film method, a surface acoustic wave method (ultrasonic method), an infrared method (optical method), an electromagnetic induction method, a capacitance method, and the like. The touch panel 11 includes a method in which position information can be input mainly using a pointing tool other than a finger, such as a touch pen, and a method in which position information cannot be input unless the pointing tool has physical characteristics equivalent to those of the finger or the finger. There is. In addition, in the case of the electromagnetic induction method, a dedicated electromagnetic induction pen is required to input position information.

このため、タッチパネル11の方式に応じて、タッチペンや電磁誘導ペン等のタッチパネル11を介して位置情報を入力するための指示器具が位置入力装置6の構成要素として備えられる。図1は、タッチパネル11の付属品としてタッチペン11Aを備えた例を示している。   For this reason, in accordance with the method of the touch panel 11, an indication instrument for inputting position information via the touch panel 11 such as a touch pen or an electromagnetic induction pen is provided as a component of the position input device 6. FIG. 1 shows an example in which a touch pen 11 </ b> A is provided as an accessory of the touch panel 11.

タッチパネル11を位置入力装置6及びディスプレイ7として使用すれば、ディスプレイ7に指又は指示道具を接触又は近接させた位置が指定位置情報としてコンピュータ2に入力される。このため、ユーザが、盲目者や弱視者等の視覚障害者であっても、直観的かつ感覚的に2次元画像の位置を確認しつつ指定位置情報をコンピュータ2に入力することが可能である。また、ユーザが視覚を利用して位置入力装置6を操作する場合であっても、2次元画像の参照を通じて容易に指定位置情報をコンピュータ2に入力することができる。   If the touch panel 11 is used as the position input device 6 and the display 7, the position at which the finger or the pointing tool is brought into contact with or close to the display 7 is input to the computer 2 as the specified position information. For this reason, even if the user is a visually handicapped person such as a blind person or a low vision person, it is possible to input the designated position information to the computer 2 while confirming the position of the two-dimensional image intuitively and sensuously. . Further, even when the user operates the position input device 6 using vision, the designated position information can be easily input to the computer 2 through reference to the two-dimensional image.

但し、ディスプレイ7上に表示された2次元画像の絶対的な2次元位置の指定位置情報をコンピュータ2に入力することが可能な位置入力装置6であれば、タッチパネル11以外の位置入力装置6を用いることもできる。換言すれば、指定可能な2次元位置の範囲をユーザが認識できるようにすれば、様々な既存の入力装置を位置入力装置6として用いることができる。   However, the position input device 6 other than the touch panel 11 may be used as long as the position input device 6 can input the specified position information of the absolute two-dimensional position of the two-dimensional image displayed on the display 7 to the computer 2. It can also be used. In other words, various existing input devices can be used as the position input device 6 if the user can recognize the range of two-dimensional positions that can be specified.

例えば、大きさが有限のタッチパッドをそのまま位置入力装置6として用いることができる。或いは、マウス、トラックボール、ポインティングデバイス等の相対的な2次元位置を入力する入力装置であっても、指定可能な2次元位置の範囲の境界が指定された場合に、振動、音又は音声により指定可能な2次元領域の境界であることをユーザに知らせる機能を入力装置自体や任意のデバイスとして設けることにより、絶対的な2次元位置の指定位置情報を入力する位置入力装置6として用いることができる。   For example, a touch pad having a finite size can be used as the position input device 6 as it is. Or, even an input device that inputs a relative two-dimensional position, such as a mouse, a trackball, or a pointing device, when a boundary of a specifiable two-dimensional position range is specified, vibration, sound, or voice By providing a function for notifying the user of the boundary of a two-dimensional area that can be specified as an input device itself or an arbitrary device, it can be used as a position input device 6 for inputting designated position information of an absolute two-dimensional position. it can.

指示入力装置8は、コンピュータ2に位置以外の指示情報を入力するための入力装置である。指示入力装置8には、キーボードやマウス等の入力装置がある。また、タッチパネル11に表示された電子ボタンを押したり、複数の選択肢から選択する操作を、タッチパネル11を通じて行う場合には、タッチパネル11は位置入力装置6と指示入力装置8を兼ねることとなる。タッチパッド等の入力装置を位置入力装置6として用いる場合も同様である。   The instruction input device 8 is an input device for inputting instruction information other than the position to the computer 2. The instruction input device 8 includes input devices such as a keyboard and a mouse. Further, when an operation of pressing an electronic button displayed on the touch panel 11 or selecting from a plurality of options is performed through the touch panel 11, the touch panel 11 serves as both the position input device 6 and the instruction input device 8. The same applies when an input device such as a touch pad is used as the position input device 6.

ユーザが視覚障害者である場合には、スクリーンリーダ技術の利用によって指示入力装置8の操作をサポートすることができる。スクリーンリーダは、ディスプレイ7に表示された情報を音声で読み上げる技術である。   When the user is visually impaired, the operation of the instruction input device 8 can be supported by using screen reader technology. The screen reader is a technology that reads out information displayed on the display 7 by voice.

振動スピーカ9は、演算装置5から出力される音声信号に従って振動し、音声を発生させる装置である。すなわち、振動子を備えたスピーカである。   The vibration speaker 9 is a device that vibrates in accordance with a sound signal output from the arithmetic device 5 and generates sound. That is, the speaker is provided with a vibrator.

知覚刺激装置4は、ディスプレイ7に表示されている2次元画像に関する情報をユーザに伝達するために、データ処理系3から出力される制御信号に従って人間の視覚以外の単一又は複数の知覚を単一又は複数の方法で直接的又は間接的に刺激する装置である。   The perceptual stimulation device 4 transmits a single or a plurality of perceptions other than human vision according to a control signal output from the data processing system 3 in order to transmit information about the two-dimensional image displayed on the display 7 to the user. A device that stimulates directly or indirectly in one or more ways.

刺激する知覚としては、より分かり安くユーザに情報を伝達できる観点から触覚が最も有効である。また、より簡易な構成で情報を伝達するために、聴覚を刺激する機能を知覚刺激装置4に設けてもよい。聴覚を刺激する場合には、知覚刺激装置4にスピーカ4Aが設けられる。   The sense of stimulation is most effective from the viewpoint of transmitting information to the user more easily and cheaply. Moreover, in order to transmit information with a simpler configuration, a function for stimulating hearing may be provided in the perceptual stimulation device 4. When stimulating hearing, the sensory stimulation device 4 is provided with a speaker 4A.

一方、触覚を刺激する代表的な方法としては、電気刺激と振動が挙げられる。   On the other hand, typical methods for stimulating the sense of touch include electrical stimulation and vibration.

電気刺激は、指や手などの人体の一部に所定の強度及びパターンの電圧を印加することによって与えることができる。理論的には、人体に印加される電圧の制御によって、あらゆる材質の物を触ったときの触覚を模擬することが可能であるとされている。電気刺激を人体に付与する場合には、知覚刺激装置4に電極を有する電圧印加装置4Bが設けられる。この場合、印加電圧を可変とすることが、より詳細な情報を伝達できる観点から有効である。   Electrical stimulation can be applied by applying a voltage having a predetermined intensity and pattern to a part of a human body such as a finger or a hand. Theoretically, by controlling the voltage applied to the human body, it is possible to simulate a tactile sensation when an object of any material is touched. When electrical stimulation is applied to the human body, the perceptual stimulation device 4 is provided with a voltage application device 4B having electrodes. In this case, making the applied voltage variable is effective from the viewpoint of transmitting more detailed information.

振動で触覚を刺激する場合には、偏心モータ等の振動子4Cを用いて非常に簡易に知覚刺激装置4を構成することができる。尚、振動の一種である超音波振動を利用して触覚を刺激することもできる。振動の伝導方法としては、知覚刺激装置4から人体に直接伝導させる方法と間接的に伝導させる方法がある。   When stimulating the sense of touch with vibration, the sensory stimulation device 4 can be configured very simply using a vibrator 4C such as an eccentric motor. Note that the sense of touch can be stimulated using ultrasonic vibration, which is a type of vibration. As a vibration conduction method, there are a method of conducting directly from the sensory stimulation device 4 to the human body and a method of conducting indirectly.

振動を直接人体に伝導させる場合には、人体に装着可能な形状及び素材の装着部に振動子4Cを固定することによって知覚刺激装置4を構成することができる。例えば、指に振動を与える場合には、弾力を有するC字状又はリング状のフレームや繊維素材に振動モータを取り付けることによって知覚刺激装置4を構成することができる。   In the case where vibration is directly conducted to the human body, the sensory stimulation device 4 can be configured by fixing the vibrator 4C to a shape that can be worn on the human body and a material mounting portion. For example, when vibration is applied to a finger, the sensory stimulation device 4 can be configured by attaching a vibration motor to a resilient C-shaped or ring-shaped frame or fiber material.

この場合、複数の指に振動を与えることができるように、複数の振動子4Cを複数の装着部に設けることによって知覚刺激装置4を構成してもよい。複数の指に振動子4Cを設ければ、指ごとに異なる振動を与えることができる。このため、複数の指を用いたタッチパネル11へのマルチ位置入力にも対応することができる。   In this case, the perceptual stimulation device 4 may be configured by providing a plurality of transducers 4C in a plurality of mounting portions so that vibration can be applied to a plurality of fingers. If the vibrator 4C is provided on a plurality of fingers, different vibrations can be applied to each finger. For this reason, it is possible to cope with multi-position input to the touch panel 11 using a plurality of fingers.

振動を間接的に人体に伝導させる場合には、指や手で操作される位置入力装置6を介して振動を人体に付与することが効果的である。従って、タッチペン11A等のタッチパネル11の指示器具やタッチパネル11自体を振動させるように知覚刺激装置4を構成することができる。位置入力装置6がマウス、タッチパッド、トラックボール、ポインタ等の入力装置である場合には、これらの入力装置を振動させてもよい。この場合、タッチパネル11やタッチペン11A等の被振動体に振動モータ等の振動子4Cを接触させればよい。従って、振動モータ等の振動子4Cに被振動体への固定器具を設けることによって知覚刺激装置4を構成することができる。   When the vibration is indirectly conducted to the human body, it is effective to apply the vibration to the human body via the position input device 6 operated by a finger or a hand. Therefore, the perceptual stimulation device 4 can be configured to vibrate the pointing device of the touch panel 11 such as the touch pen 11A or the touch panel 11 itself. When the position input device 6 is an input device such as a mouse, a touch pad, a trackball, or a pointer, these input devices may be vibrated. In this case, a vibrator 4C such as a vibration motor may be brought into contact with a vibrating body such as the touch panel 11 or the touch pen 11A. Therefore, the perceptual stimulation device 4 can be configured by providing the vibrator 4C such as a vibration motor with a fixture for the vibrating body.

尚、図1に示すように振動スピーカ9がコンピュータ2に備えられている場合には、振動スピーカ9を制御することによってもタッチパネル11を振動させることができる。振動スピーカ9を利用すれば、振動による触覚刺激と音による聴覚刺激とを併用することもできる。これは、知覚刺激装置4における振動子4Cとして振動スピーカを用いた場合も同様である。   As shown in FIG. 1, when the vibration speaker 9 is provided in the computer 2, the touch panel 11 can be vibrated by controlling the vibration speaker 9. If the vibration speaker 9 is used, tactile stimulation by vibration and auditory stimulation by sound can be used in combination. The same applies to the case where a vibration speaker is used as the vibrator 4C in the perceptual stimulation device 4.

また、コンピュータ2が携帯電話である場合には、コンピュータ2に標準的に振動機構が備わっている。従って、振動スピーカ9等の振動機構がコンピュータ2に備えられ、かつ当該振動機構を制御できる場合には、知覚刺激装置4を省略してもよい。逆に、知覚刺激装置4を設ければ、コンピュータ2に振動スピーカ9等の振動機構が備わっていなくても、人体の触覚を刺激することができる。   When the computer 2 is a mobile phone, the computer 2 is normally equipped with a vibration mechanism. Accordingly, when the computer 2 is provided with a vibration mechanism such as the vibration speaker 9 and the vibration mechanism can be controlled, the perceptual stimulation device 4 may be omitted. On the contrary, if the perceptual stimulation device 4 is provided, the tactile sensation of the human body can be stimulated even if the computer 2 is not equipped with a vibration mechanism such as the vibration speaker 9.

また、コンピュータ2からの出力が十分でない場合には、必要に応じて増幅器4Dが知覚刺激装置4に備えられる。そして、増幅器4Dの入力側がコンピュータ2と接続され、増幅器4Dの出力側に振動子4C、スピーカ4A、電圧印加装置4B等の刺激を発生させる構成要素が接続される。   When the output from the computer 2 is not sufficient, an amplifier 4D is provided in the perceptual stimulation device 4 as necessary. The input side of the amplifier 4D is connected to the computer 2, and components that generate stimuli such as the vibrator 4C, the speaker 4A, and the voltage applying device 4B are connected to the output side of the amplifier 4D.

コンピュータ2の画像種類判定部3Aは、表示画像生成部10からディスプレイ7上に表示されている2次元画像データの少なくとも一部を取得して、表示されている2次元画像の種類を判定する機能を有する。   The image type determination unit 3A of the computer 2 acquires at least a part of the two-dimensional image data displayed on the display 7 from the display image generation unit 10 and determines the type of the displayed two-dimensional image. Have

2次元画像の種類は、様々な分類方法で特定することができる。例えば、色に着目すれば、2次元画像は、白黒の2値画像、輝度で表示される多値のグレースケール画像、2値又は多値のカラー画像、3次元(3D: three-dimensional)画像等の種類に分類できる。或いは、画像の内容や属性に着目すれば、2次元画像は、デジタル写真等の静止画、動画、テキスト文書、表、グラフ、図面、イラスト等のイメージ、CG (computer graphic)等の種類にも分類することができる。   The type of the two-dimensional image can be specified by various classification methods. For example, focusing on color, a two-dimensional image may be a black and white binary image, a multi-value grayscale image displayed in luminance, a binary or multi-value color image, or a three-dimensional (3D) image. And so on. Or if you pay attention to the contents and attributes of images, 2D images can be used for still images such as digital photographs, videos, text documents, images such as tables, graphs, drawings, and illustrations, and CG (computer graphic) types. Can be classified.

上述した2次元画像の種類の判定は、画像種類判定部3Aにおける2次元画像データに対するデータ処理によって自動的に行うことができる。但し、ユーザの操作によって指示入力装置8から入力された指示情報に基づいて手動で判定又は判定結果を変更することもできる。画像の種類の判定処理を自動で行う場合には、画像種類判定部3Aが、2次元画像データがカラー画像データか白黒画像データであるかの判定処理、2次元画像データが2値画像データであるか多値画像データであるかの判定処理、2次元画像データの画素値に対する閾値処理、2次元画像データの位置変化に関するn階の微分値(nは任意の自然数)に対する閾値処理等の必要なデータ処理を実行する。   The above-described determination of the type of the two-dimensional image can be automatically performed by data processing on the two-dimensional image data in the image type determination unit 3A. However, the determination or the determination result can be manually changed based on the instruction information input from the instruction input device 8 by the user's operation. When the image type determination process is automatically performed, the image type determination unit 3A determines whether the two-dimensional image data is color image data or black-and-white image data. The two-dimensional image data is binary image data. Necessity of threshold value processing for pixel value of two-dimensional image data, threshold processing for n-th order differential value (n is an arbitrary natural number) regarding position change of two-dimensional image data, etc. Data processing.

上述した判定処理の詳細な方法の例としては、2次元画像データのデータ形式に基づく方法、画素値のヒストグラムに基づく方法及び画像データに所定の変換処理を施して得られるデータに基づく方法が挙げられる。   Examples of the detailed method of the determination processing described above include a method based on the data format of two-dimensional image data, a method based on a histogram of pixel values, and a method based on data obtained by performing predetermined conversion processing on image data. It is done.

例えば、2次元画像データのデータ形式がモノクロのビットマップ形式である場合には、2次元画像の種類が白黒の2値画像であると判定することができる。   For example, when the data format of the two-dimensional image data is a monochrome bitmap format, it can be determined that the type of the two-dimensional image is a monochrome binary image.

また、画素値のヒストグラムが2値である場合には2値画像データであると判定することができる。一方、RGB値の各ヒストグラム間における相関係数に対する閾値処理等によってRGB値の各ヒストグラムが互いに相似であると判定される場合には、2次元画像の種類がグレースケールの画像であると判定することができる。また、RGB値の各ヒストグラムが不連続な複数のピークを呈する場合には、2次元画像の種類が特定の色を抽出することが可能な画像であると判定することができる。更に、画素値のヒストグラムに対して、平滑化処理等の任意の処理を施してもよい。   If the pixel value histogram is binary, it can be determined that the image data is binary image data. On the other hand, when it is determined that the histograms of the RGB values are similar to each other by threshold processing on the correlation coefficient between the histograms of the RGB values, the type of the two-dimensional image is determined to be a grayscale image. be able to. Further, when each histogram of RGB values exhibits a plurality of discontinuous peaks, it can be determined that the type of the two-dimensional image is an image from which a specific color can be extracted. Furthermore, an arbitrary process such as a smoothing process may be performed on the histogram of pixel values.

別の例としては、2次元画像データを色相(Hue)、彩度(Saturation)及び明度(Value)の三成分からなるHSV色空間データや色相(Hue)、彩度(Saturation)及び輝度(Luminance)の三成分からなるHLS色空間データ等の色空間データに変換し、色空間データに基づいて2次元画像の種類を判定することができる。例えば、色空間データにおける色相の揺らぎを表す指標に対する閾値処理などによって、色相の揺らぎが少ないと判定される場合には、2次元画像の種類がグレースケールの画像であると判定することができる。   As another example, two-dimensional image data is converted into HSV color space data or hue, saturation, and luminance (Luminance) consisting of the three components of hue, saturation, and value. ) And the color space data such as the HLS color space data, and the type of the two-dimensional image can be determined based on the color space data. For example, when it is determined that the hue fluctuation is small by threshold processing for an index representing hue fluctuation in the color space data, the type of the two-dimensional image can be determined to be a grayscale image.

ディスプレイ7には、異なる複数の種類の2次元画像が表示される場合がある。この場合には、2次元画像が位置ごとに異なる複数の種類と判定される。   A plurality of different types of two-dimensional images may be displayed on the display 7. In this case, the two-dimensional image is determined to be a plurality of types different for each position.

このような判定処理のため、画像種類判定部3Aは、ディスプレイ7上に表示されている2次元画像データ全体又は少なくともディスプレイ7上に表示されている2次元画像の種類を判定することが可能な範囲の2次元画像データを表示画像生成部10から取得できるように構成される。   Because of such determination processing, the image type determination unit 3A can determine the entire two-dimensional image data displayed on the display 7 or at least the type of the two-dimensional image displayed on the display 7. A range of two-dimensional image data is configured to be acquired from the display image generation unit 10.

すなわち、2次元画像の種類の判定に2次元画像データ全体を用いる場合には、画像種類判定部3Aは、位置入力装置6から入力された指定位置情報とは無関係に2次元画像データ全体を表示画像生成部10から取得する。一方、2次元画像の種類の判定に2次元画像データの一部を用いる場合には、画像種類判定部3Aは、位置入力装置6から入力された指定位置情報に応じた範囲の2次元画像データを表示画像生成部10から取得する。例えば、画像種類判定部3Aは、位置入力装置6によって指定された位置を中心として予め設定された範囲内における2次元画像データを表示画像生成部10から取得する。   That is, when the entire 2D image data is used to determine the type of the 2D image, the image type determination unit 3A displays the entire 2D image data regardless of the designated position information input from the position input device 6. Obtained from the image generator 10. On the other hand, when a part of the two-dimensional image data is used for the determination of the type of the two-dimensional image, the image type determination unit 3A has a range of two-dimensional image data corresponding to the designated position information input from the position input device 6. Is obtained from the display image generation unit 10. For example, the image type determination unit 3 </ b> A acquires, from the display image generation unit 10, two-dimensional image data within a preset range around the position specified by the position input device 6.

つまり、2次元画像の種類は、位置入力装置6から入力された指定位置における画素値のみからは判定することができない。従って、指定位置の周辺を含み、画像の種類の判定に十分な範囲の画素に基づいて画像の種類が判定される。   That is, the type of the two-dimensional image cannot be determined only from the pixel value at the designated position input from the position input device 6. Therefore, the type of image is determined based on pixels in a range sufficient for determining the type of image including the periphery of the designated position.

2次元画像の種類の判定に2次元画像データ全体を用いれば、より確実な判定が期待できる。これに対して、2次元画像の種類の判定に2次元画像データの一部を用いれば、データ処理を高速化してリアルタイム性を向上させることができる。   If the entire two-dimensional image data is used for the determination of the type of the two-dimensional image, more reliable determination can be expected. On the other hand, if a part of the two-dimensional image data is used for determining the type of the two-dimensional image, the data processing can be speeded up and the real-time property can be improved.

画像変換部3Bは、画像種類判定部3Aにおいて判定結果として生成された画像の種類情報に基づいて、画像の種類に応じた2次元画像データの特徴を表す中間画像データとして特徴画像データを生成する機能と、位置入力装置6から取得した指定位置情報に対応する所定の範囲内における特徴画像データの画素値情報を刺激制御部3Cに与える機能を有する。また、画像変換部3Bは、特徴画像データを生成するために、表示画像生成部10から2次元画像データ全体の画素値又は少なくとも位置入力装置6から入力された指定位置を含む部分的な領域に対応する2次元画像データの画素値を取得できるように構成される。   The image conversion unit 3B generates feature image data as intermediate image data representing the characteristics of the two-dimensional image data corresponding to the image type based on the image type information generated as a determination result in the image type determination unit 3A. And a function of giving the stimulus control unit 3C pixel value information of feature image data within a predetermined range corresponding to the designated position information acquired from the position input device 6. Further, the image conversion unit 3B generates a feature image data in a partial area including the pixel values of the entire two-dimensional image data from the display image generation unit 10 or at least the designated position input from the position input device 6. The pixel value of the corresponding two-dimensional image data is configured to be acquired.

特徴画像データは、ユーザが視覚障害者であっても認識がより容易となるような画像データとされる。特に、画像の種類に応じた2次元画像データの特徴を単純化した画像データや画像の種類に応じた2次元画像データの特徴を強調した画像データは、認識が容易な画像データとなる場合が多い。このような特徴画像データは、経験的又は実験的に決定した2次元画像データに対する画像変換処理によって生成することができる。   The feature image data is image data that can be easily recognized even if the user is visually impaired. In particular, image data obtained by simplifying features of two-dimensional image data corresponding to the type of image or image data in which features of two-dimensional image data corresponding to the type of image are emphasized may be easily recognized image data. Many. Such feature image data can be generated by image conversion processing on two-dimensional image data determined empirically or experimentally.

画像変換処理は、所望の単一又は複数の処理で構成し、処理の組み合わせは、画像の種類に応じて予め適切な組み合わせに決定しておくことができる。画像変換処理方法の具体例としては、空間周波数の補正処理、諧調の補正処理、2値化処理、特定の色に対応する位置又は領域の抽出処理、画像を意図的にぼかすスムージング処理、ガンマ変換、n階の微分処理が挙げられる。   The image conversion process is configured by a desired single or a plurality of processes, and the combination of the processes can be determined in advance as an appropriate combination according to the type of image. Specific examples of the image conversion processing method include spatial frequency correction processing, gradation correction processing, binarization processing, position or region extraction processing corresponding to a specific color, smoothing processing that intentionally blurs an image, and gamma conversion. , N-th order differential processing.

但し、指示入力装置8から入力された指示情報に基づいて複数の画像変換処理方法から所望の画像変換処理方法を選択できるようにしてもよい。すなわち、上述の画像の種類に加え、ユーザの目的に応じて画像変換処理方法を手動で変更することができる。   However, a desired image conversion processing method may be selected from a plurality of image conversion processing methods based on the instruction information input from the instruction input device 8. That is, in addition to the above-described image types, the image conversion processing method can be manually changed according to the purpose of the user.

図2は、図1に示す画像変換部3Bにおいて画像変換処理として1階微分処理を行った例を示す図である。   FIG. 2 is a diagram illustrating an example in which the first-order differentiation process is performed as the image conversion process in the image conversion unit 3B illustrated in FIG.

図2(A)に示すように、指定位置周辺の2次元画像データとして、或いは2次元画像データに対する画像変換処理によって、着色された単純な図形を表す画像データが得られている場合、画像データに1階微分処理を行うと、(B)に示すように図形の輪郭が抽出された特徴画像データが生成される。すなわち、この場合、1階微分処理は、図形の輪郭抽出処理となっている。特にユーザが視覚障害者である場合には、図2(A)に示すような着色された図形情報よりも、図2(B)に示すような図形の輪郭情報の方が単純な情報であり認識が容易である。   As shown in FIG. 2A, when image data representing a simple colored figure is obtained as two-dimensional image data around a specified position or by image conversion processing on the two-dimensional image data, When the first-order differentiation process is performed, feature image data from which the contour of the figure is extracted is generated as shown in (B). That is, in this case, the first-order differentiation process is a figure contour extraction process. In particular, when the user is visually impaired, the contour information of the graphic as shown in FIG. 2 (B) is simpler information than the colored graphic information as shown in FIG. 2 (A). Easy to recognize.

図3は、図1に示す画像変換部3Bにおいて画像変換処理として2階微分処理を行うことが有効な2次元画像の例を示す図である。   FIG. 3 is a diagram illustrating an example of a two-dimensional image in which it is effective to perform second-order differentiation processing as image conversion processing in the image conversion unit 3B illustrated in FIG.

図3(A)に示すように、陰影を付けることによって円柱を2次元で表現した画像データが得られている場合、1階微分処理行うと、底面の縁の輪郭を抽出することができる。しかし、円柱側面における曲率の変動を単純化した2次元画像として表すためには、図3(A)に示す画像データに対する2階微分処理が有効である。   As shown in FIG. 3A, when image data expressing a cylinder in two dimensions by shading is obtained, the contour of the bottom edge can be extracted by performing the first-order differentiation process. However, in order to represent the variation in curvature on the side surface of the cylinder as a simplified two-dimensional image, the second-order differentiation process for the image data shown in FIG. 3A is effective.

図4は、図1に示す画像変換部3Bにおいて画像変換処理として2値化処理及び輪郭抽出処理を行った例を示す図である。   FIG. 4 is a diagram illustrating an example in which binarization processing and contour extraction processing are performed as image conversion processing in the image conversion unit 3B illustrated in FIG.

図4(A)に示すように、指定位置周辺の2次元画像データの種類がカラーの静止画像である場合に、静止画像データに対して2値化処理を行うと、図4(B)に示すように、白領域と黒領域を有する特徴画像データが生成される。このため、静止画像が風景画であるなどのサポート情報があれば、領域の形状から空の領域と山を含む地上の領域との識別が容易な画像データを生成することができる。一方、2次元画像データに対して微分処理などの輪郭線の抽出処理を行えば、図4(C)に示すように、領域の境界が抽出された特徴画像データが生成される。図4(C)に示す輪郭抽出画像によれば、空と山の境界の認識が容易である。   As shown in FIG. 4A, when the type of the two-dimensional image data around the designated position is a color still image, if binarization processing is performed on the still image data, the result shown in FIG. As shown, feature image data having a white area and a black area is generated. Therefore, if there is support information such as a still image being a landscape image, it is possible to generate image data that makes it easy to distinguish an empty region and a ground region including a mountain from the shape of the region. On the other hand, if contour extraction processing such as differentiation processing is performed on the two-dimensional image data, feature image data in which the boundary of the region is extracted is generated as shown in FIG. According to the contour extraction image shown in FIG. 4C, the sky / mountain boundary can be easily recognized.

同様な応用例としては、2次元画像データの種類が解剖図であるとのサポート情報があれば、骨領域と筋肉領域との区別が容易な単純化された特徴画像データを2次元画像データに対する画像変換により生成することができる。   As a similar application example, if there is support information that the type of 2D image data is an anatomical chart, simplified feature image data that makes it easy to distinguish between a bone region and a muscle region is used for 2D image data. It can be generated by image conversion.

図5は、図1に示す画像変換部3Bにおいて画像変換処理として空間周波数の補正処理を行った例を示す図である。   FIG. 5 is a diagram illustrating an example in which a spatial frequency correction process is performed as an image conversion process in the image conversion unit 3B illustrated in FIG.

図5(A)に示すように、輪郭画像データが得られている場合に、空間周波数が大きいと輪郭線が細くなる。そこで、空間周波数を低減化する補正処理を輪郭画像データに施すことによって、図5(B)に示すような線の太い輪郭画像データを生成することができる。補正処理としては、例えば、空間周波数が予め設定した閾値を超える場合に、より小さい特定の値に調整する補正や、空間周波数を一定の割合で小さくする補正などがある。   As shown in FIG. 5A, when the contour image data is obtained, the contour line becomes thin if the spatial frequency is large. Therefore, by applying correction processing for reducing the spatial frequency to the contour image data, contour image data with a thick line as shown in FIG. 5B can be generated. As the correction processing, for example, when the spatial frequency exceeds a preset threshold value, there are correction for adjusting to a smaller specific value, correction for reducing the spatial frequency at a certain rate, and the like.

図6は、図1に示す画像変換部3Bにおいて画像変換処理としてテキスト画像データをぼかす処理を行った例を示す図である。   FIG. 6 is a diagram showing an example in which text image data is blurred as image conversion processing in the image conversion unit 3B shown in FIG.

図6(A)に示すようなテキストを示す画像データから視覚障害者が文字のレイアウトを確認しようとする場合、原画像データに対してスムージング処理やガンマ変換等のテキストを意図的にぼかす処理を施すと、図6(B)に示すような画像データが生成される。図6(B)に示す画像データでは、テキストが読み取れない程、不正確に表示されているものの、各文字が太くなる結果、文字の配列方向が強調される。従って、視覚障害者には、図6(B)に示す画像データが適切な場合がある。   When the visually handicapped person wants to confirm the layout of characters from the image data indicating the text as shown in FIG. 6A, a process of intentionally blurring the text such as smoothing process or gamma conversion on the original image data. When applied, image data as shown in FIG. 6B is generated. In the image data shown in FIG. 6B, although the text is displayed inaccurately so that the text cannot be read, each character becomes thick, and as a result, the character arrangement direction is emphasized. Accordingly, the image data shown in FIG. 6B may be appropriate for the visually impaired.

同様に、文書のレイアウトやOS (operating system)の操作画面のレイアウトを確認する場合には、このようなぼかし処理が有効な場合がある。逆に、文字の形状を認識しようとする場合には、文字自体の輪郭を強調する画像処理が適切となる。つまり、大局的に画像情報を得ることがユーザの目的である場合には、局所的な画像の要素を抑制する処理が適切であり、局所的な画像情報を得ることがユーザの目的である場合には、局所的な画像の要素を強調する処理が適切であることが多い。   Similarly, when checking the layout of a document or the layout of an operating screen of an OS (operating system), such blurring processing may be effective. Conversely, when trying to recognize the shape of a character, image processing that emphasizes the outline of the character itself is appropriate. In other words, when the user's purpose is to obtain image information globally, a process for suppressing local image elements is appropriate, and the user's purpose is to obtain local image information. In many cases, a process for enhancing local image elements is appropriate.

図7は、図1に示す画像変換部3Bにおいて画像変換処理として特定の色で着色された領域を抽出する処理を行った例を示す図である。   FIG. 7 is a diagram illustrating an example in which processing for extracting a region colored in a specific color is performed as image conversion processing in the image conversion unit 3B illustrated in FIG.

図7(A)に示すようなテキストを示す画像データから視覚障害者が朱色で押された印影の有無を確認しようとする場合、原画像データに対して朱色領域の抽出処理を施すと、図7(B)に示すような画像データが生成される。図7(B)に示す画像データでは、テキストが消えているものの、印影部分は選択的に描出されている。従って、視覚障害者にとっては、図7(B)に示す画像データの方が印影の有無の認識に有効である。   When the presence or absence of a seal impressed by a visually impaired person in vermilion is confirmed from image data indicating text as shown in FIG. 7A, when the vermilion region is extracted from the original image data, Image data as shown in FIG. 7 (B) is generated. In the image data shown in FIG. 7B, although the text has disappeared, the imprinted portion is selectively depicted. Therefore, for the visually impaired, the image data shown in FIG. 7B is more effective for recognizing the presence or absence of the seal.

尚、抽出された特定の色領域を拡張する処理を行ってもよい。例えば、印影を抽出する場合には、隣接する朱色の領域を拡大することによって結合させることが効果的である。   In addition, you may perform the process which expands the extracted specific color area | region. For example, in the case of extracting seal impressions, it is effective to combine them by enlarging adjacent vermilion regions.

図8は、図1に示す画像変換部3Bにおいて画像変換処理として特定の色領域の拡張処理を行った例を示す図である。   FIG. 8 is a diagram illustrating an example in which a specific color region expansion process is performed as an image conversion process in the image conversion unit 3B illustrated in FIG.

図8(A)に示すように、複数の細かい色領域が分散して抽出された場合には、図8(B)に示すように色領域を膨張させて結合することが効果的である。尚、空間周波数を低下させる処理を行っても、複数の領域を結合することが可能である。但し、特定の領域を拡張する処理を行えば、着目する領域をより強調して確実に抽出することができる。   As shown in FIG. 8A, when a plurality of fine color regions are extracted in a distributed manner, it is effective to expand and combine the color regions as shown in FIG. 8B. Even if processing for reducing the spatial frequency is performed, a plurality of regions can be combined. However, if the process of expanding a specific area is performed, the area of interest can be more emphasized and reliably extracted.

この他の画像変換処理の例としては、パターンやCGにおいて3次元的に表示される図形領域の模様として利用されるテクスチャを、特定の領域に付加する処理などが挙げられる。これによりテクスチャ等の周期的な模様の相違により画像データ上の領域の特定が容易となる。   As another example of the image conversion process, there is a process of adding a texture used as a pattern of a graphic area displayed three-dimensionally in a pattern or CG to a specific area. Thereby, it becomes easy to specify an area on the image data due to a difference in a periodic pattern such as a texture.

上述の例のように、適切な画像変換処理は、2次元画像データの種類のみならず、ユーザの目的にも依存する。そこで画像変換部3Bが、位置入力装置6から入力された指定位置の履歴情報に基づいてユーザの目的を自動的に予測し、予測した目的に応じて画像変換処理方法を変更するモードを設定してもよい。   As in the above example, appropriate image conversion processing depends not only on the type of two-dimensional image data but also on the purpose of the user. Therefore, the image conversion unit 3B automatically predicts the user's purpose based on the history information of the designated position input from the position input device 6, and sets a mode for changing the image conversion processing method according to the predicted purpose. May be.

例えば、位置入力装置6から入力された指定位置が静止している場合には、ユーザは指定位置における局所的な画像情報を取得することが目的であると予測できる。逆に、位置入力装置6から入力された指定位置が断続的又は連続的に移動している場合には、大局的な画像情報を取得することが目的であると予測できる。   For example, when the designated position input from the position input device 6 is stationary, the user can predict that the purpose is to acquire local image information at the designated position. Conversely, when the designated position input from the position input device 6 is moving intermittently or continuously, it can be predicted that the purpose is to acquire global image information.

そこで、指定位置が静止している場合には、より詳細な画像データを生成するための画像変換処理を実行し、指定位置が移動している場合には、より単純な画像データを生成するための画像変換処理を実行するように、画像変換部3Bにおける処理方法を予め決定することができる。   Therefore, when the designated position is stationary, an image conversion process is performed to generate more detailed image data. When the designated position is moving, simpler image data is generated. The processing method in the image conversion unit 3B can be determined in advance so as to execute the image conversion process.

一方、ユーザの目的に依存しない画像変換については、画像の種類に応じて自動的に実行されるようにすることができる。例えば、空間周波数の補正処理や諧調の補正処理などは、画像の種類に応じて画像変換部3Bが自動的に実行するように画像処理方法を決定することができる。   On the other hand, image conversion that does not depend on the user's purpose can be automatically executed according to the type of image. For example, the image processing method can be determined so that the image conversion unit 3B automatically executes the spatial frequency correction process, the gradation correction process, and the like according to the type of image.

また、刺激制御部3Cに与えられる対象となる指定位置に対応する所定の範囲についても、指示入力装置8から指示情報を画像変換部3Bに入力することによって、指定位置周辺の所望の領域に含まれる複数の画素を単位画素領域として可変設定することができる。単位画素領域は、例えば、指やタッチペン11Aをタッチパネル11に接触させたときの接触面積と同等な必要な解像度が得られる領域とすることが実用的である。   Further, a predetermined range corresponding to the designated position to be given to the stimulus control unit 3C is also included in a desired area around the designated position by inputting the instruction information from the instruction input device 8 to the image conversion unit 3B. A plurality of pixels can be variably set as a unit pixel region. For example, it is practical that the unit pixel region is a region in which a necessary resolution equivalent to the contact area when the finger or the touch pen 11A is brought into contact with the touch panel 11 can be obtained.

従って、単位画素領域の広さを特徴画像データの空間周波数に対応させて設定してもよい。例えば、特徴画像データの空間周波数が高ければ、特徴画像データは細かい画像データとなる。従って、特徴画像データの情報を得るためには、より高い解像度が必要となる。このため、空間周波数に依存して要求される解像度が得られるように単位画素領域も小さく設定すれば良い。逆に、空間周波数が低ければ、特徴画像データは粗い画像データとなるので、粗い解像度が得られればよく、ユーザにおおまかな情報が伝達されるよう単位画素領域も広く設定することができる。   Therefore, the width of the unit pixel area may be set in correspondence with the spatial frequency of the feature image data. For example, if the spatial frequency of the feature image data is high, the feature image data becomes fine image data. Therefore, higher resolution is required to obtain feature image data information. For this reason, the unit pixel area may be set small so as to obtain the required resolution depending on the spatial frequency. On the other hand, if the spatial frequency is low, the feature image data becomes coarse image data. Therefore, it is only necessary to obtain a coarse resolution, and the unit pixel area can be set wide so that rough information is transmitted to the user.

但し、空間周波数等の条件に依らず、高解像度に対応するために、単一の画素を単位画素領域としてもよい。   However, a single pixel may be used as a unit pixel region in order to support high resolution regardless of conditions such as spatial frequency.

そして、指定位置に対応する単位画素領域の特徴画像データが画像変換部3Bから刺激制御部3Cに与えられる対象データとなる。従って、画像変換部3Bは、単位画素領域のみについて特徴画像データを生成するようにしてもよいし、単位画素領域よりも広範囲の特徴画像データを生成して単位画素領域のデータを抽出するようにしてもよい。そして、後述する刺激制御部3Cによる知覚刺激装置4又は振動スピーカ9の制御によって、単位画素領域の特徴画像データに応じた知覚刺激がユーザに付与される。   Then, the feature image data of the unit pixel region corresponding to the designated position is the target data given from the image conversion unit 3B to the stimulus control unit 3C. Therefore, the image conversion unit 3B may generate feature image data only for the unit pixel region, or generate feature image data having a wider range than the unit pixel region and extract the data of the unit pixel region. May be. And perception stimulation according to the characteristic image data of a unit pixel area is given to a user by control of perceptual stimulus device 4 or vibration speaker 9 by stimulus control part 3C mentioned below.

知覚刺激を通じてユーザに情報をより分かり安く伝達する観点からは、位置入力装置6を操作して位置を指定したタイミングにおいて、指や手に知覚刺激を与えることが非常に効果的である。例えば、ユーザがタッチパネル11をタッチしたタイミングでディスプレイ7を振動させれば、タッチパネル11全体が振動しているとしても、ユーザにタッチした位置が振動すると認識させることができる。従って、指定位置の入力から知覚刺激発生までの遅延時間が長いと情報伝達の効果が低減する。遅延時間は、単位画素領域を大きくすることによってある程度短くすることができる。   From the viewpoint of transmitting information to the user more easily and cheaply through the perceptual stimulus, it is very effective to give a perceptual stimulus to the finger or hand at the timing when the position is specified by operating the position input device 6. For example, if the display 7 is vibrated at the timing when the user touches the touch panel 11, even if the entire touch panel 11 is vibrated, it can be recognized that the position touched by the user vibrates. Therefore, if the delay time from the input of the specified position to the occurrence of the perceptual stimulus is long, the effect of information transmission is reduced. The delay time can be shortened to some extent by increasing the unit pixel area.

更に、予測した指定位置に基づく制御を行うことによって、単位画素領域を不必要に大きくすることなく、つまり解像度を犠牲にすることなく指定位置の入力から知覚刺激発生までの遅延時間を短くすることができる。   Furthermore, by performing control based on the predicted specified position, the delay time from the input of the specified position to the occurrence of the perceptual stimulus can be shortened without unnecessarily increasing the unit pixel area, that is, without sacrificing the resolution. Can do.

将来のある時刻における指定位置は、過去の各時刻における指定位置の軌跡を示す履歴情報、すなわち指定位置の直前における移動方向及び移動速度に基づいて事前に予測することができる。従って、過去の各時刻における指定位置の移動方向及び移動速度を含む指定位置履歴情報及び位置入力装置6から取得した最新の指定位置情報に基づいて予測される将来の指定位置を中心とする領域を単位画素領域としてもよい。例えば、指定位置の入力タイミングから知覚刺激の発生までに要する時間分だけ最新の指定位置から移動させた位置を将来の指定位置として予測することができる。   The designated position at a certain time in the future can be predicted in advance based on history information indicating the locus of the designated position at each past time, that is, the moving direction and moving speed immediately before the specified position. Therefore, an area centered on the future designated position predicted based on the designated position history information including the moving direction and moving speed of the designated position at each past time and the latest designated position information acquired from the position input device 6 is obtained. A unit pixel region may be used. For example, a position moved from the latest designated position by the time required from the input timing of the designated position to the occurrence of the perceptual stimulus can be predicted as a future designated position.

このような制御によって、データ処理及び制御信号の伝送による出力の遅れを補正することができる。そして、常にリアルタイムにユーザにタッチした位置において振動等による触覚刺激を与えることができる。この制御は、画像種類判定部3Aにおける指定位置に対応する画像の種類の判定処理にも適用することができる。   By such control, output delay due to data processing and control signal transmission can be corrected. And tactile stimulation by vibration etc. can always be given in the position which touched the user in real time. This control can also be applied to the image type determination process corresponding to the designated position in the image type determination unit 3A.

刺激制御部3Cは、画像変換部3Bから取得した指定位置に対応する単位画素領域における特徴画像データの画素値に基づいて制御信号を生成する機能と、生成した制御信号を知覚刺激装置4又は振動スピーカ9に出力する機能を有する。つまり、刺激制御部3Cは、知覚刺激装置4又は振動スピーカ9を制御することによって、特徴画像データの指定位置付近における特徴を所定のパターンの知覚刺激としてユーザに伝達する機能を備えている。   The stimulus control unit 3C generates a control signal based on the pixel value of the feature image data in the unit pixel region corresponding to the designated position acquired from the image conversion unit 3B, and the generated control signal is transmitted to the perceptual stimulation device 4 or the vibration. A function of outputting to the speaker 9 is provided. That is, the stimulus control unit 3C has a function of transmitting the feature near the specified position of the feature image data to the user as a perceptual stimulus of a predetermined pattern by controlling the perceptual stimulus device 4 or the vibration speaker 9.

制御信号は、指定位置に対応する単位画素領域における画素値情報を、予め決定された規則に従って変換することによって生成することができる。制御信号への変換規則は、指示入力装置8から指示情報を刺激制御部3Cに入力することによって所望の規則に可変設定することができる。   The control signal can be generated by converting pixel value information in the unit pixel region corresponding to the designated position according to a predetermined rule. The conversion rule to the control signal can be variably set to a desired rule by inputting instruction information from the instruction input device 8 to the stimulus control unit 3C.

制御信号による制御対象が、図1に示すように振動子4C、スピーカ4A、電圧印加装置4B及び振動スピーカ9のうちの1つまたは複数の組合せである場合には、振動、音、電圧等の知覚刺激の付与主体の振幅及び周波数の他、波数(山の数)や波の面積(パワー)、唸り等のパラメータを特徴画像データの画素値に対応させて設定することができる。   When the control target by the control signal is one or a combination of the vibrator 4C, the speaker 4A, the voltage applying device 4B, and the vibration speaker 9, as shown in FIG. 1, vibration, sound, voltage, etc. In addition to the amplitude and frequency of the subject to which the sensory stimulus is applied, parameters such as wave number (number of peaks), wave area (power), and swell can be set in correspondence with the pixel values of the feature image data.

図9は、図1に示す刺激制御部3Cにおいて波数が3つのトーンバース波形を有する制御信号を生成した例を示す図であり、図10は、図1に示す刺激制御部3Cにおいて波の高さが周期的に変化する波形を有する制御信号を生成した例を示す図である。   FIG. 9 is a diagram showing an example in which a control signal having a tone-verse waveform with three wave numbers is generated in the stimulus control unit 3C shown in FIG. 1, and FIG. 10 is a diagram showing the wave height in the stimulus control unit 3C shown in FIG. It is a figure which shows the example which produced | generated the control signal which has a waveform which changes periodically.

例えば、特徴画像データが2値の白黒画像データである場合には、指定位置で特定される単位画素領域における値の有無を、振動、電圧又は音の有無としてユーザに伝達できるように制御信号を生成することができる。この場合、ユーザは、刺激の有無で特徴画像データの輪郭や領域を認識することができる。   For example, when the feature image data is binary black-and-white image data, a control signal is transmitted so that the presence / absence of a value in the unit pixel area specified at the designated position can be transmitted to the user as the presence / absence of vibration, voltage, or sound. Can be generated. In this case, the user can recognize the outline and area of the feature image data based on the presence or absence of the stimulus.

一方、特徴画像データが多値の画像データであれば、特徴画像データの濃度又は輝度を制御信号の振幅の大きさ又は周波数の長さに対応させることができる。この場合、ユーザは、振動、電圧又は音の強さ及び周波数によって特徴画像データの濃度を判断することができる。   On the other hand, if the feature image data is multivalued image data, the density or luminance of the feature image data can be made to correspond to the amplitude of the control signal or the length of the frequency. In this case, the user can determine the density of the feature image data based on vibration, voltage, or sound intensity and frequency.

また、特徴画像データがカラーの画像データであれば、色相や彩度を制御信号の振幅の大きさ、周波数の高低及びそれらのパターンの組合せに対応させることができる。この場合、ユーザは、振動、電圧又は音の強さ及び周波数によって特徴画像データの色相や彩度を判断することができる。また、指定位置で特定される単位画素領域内に緑色等の特定色の画素が存在する場合にのみ振動、電圧又は音を発生させるように制御信号を生成することもできる。この場合、ユーザは、振動、電圧又は音の有無によって、特定色の有無を判断することができる。   If the feature image data is color image data, the hue and saturation can be made to correspond to the amplitude of the control signal, the level of the frequency, and combinations of these patterns. In this case, the user can determine the hue and saturation of the feature image data based on vibration, voltage, or sound intensity and frequency. In addition, the control signal can be generated so as to generate vibration, voltage, or sound only when a pixel of a specific color such as green exists in the unit pixel region specified at the specified position. In this case, the user can determine the presence or absence of the specific color based on the presence or absence of vibration, voltage, or sound.

別の例として、指定位置が既定の時間以上、既定の領域にあると判定される場合、その点における詳細な情報を伝達できるように制御信号を切換えることができる。例えば、RGB値を区切られた3個の振動における波の高さで表現したり、色相に対応する振動で表現することができる。   As another example, when it is determined that the designated position is in the predetermined region for a predetermined time or longer, the control signal can be switched so that detailed information at that point can be transmitted. For example, the RGB value can be expressed by the wave height of three divided vibrations, or by the vibration corresponding to the hue.

図11は、図1に示す画像変換部3Bにおける画像変換処理及び刺激制御部3Cにおける制御信号の生成処理の具体例を示す図である。   FIG. 11 is a diagram illustrating a specific example of the image conversion process in the image conversion unit 3B and the control signal generation process in the stimulus control unit 3C illustrated in FIG.

図11(A)に示すように観察対象となる画像データが事務処理等に利用される書類の画像データである場合には、白黒画像に捺印された書類データや赤色で強調された書類データのように、ごく一部において色が使用される場合が多い。そこで、図11(B)に示すように画像変換部3Bにおいて画像データの分割処理を行うと、予め局所的な領域として設定した範囲を除く領域が白黒の2値データであるかグレースケールのデータである場合には、局所的に色が使用された書類データであると判定することができる。   As shown in FIG. 11A, when the image data to be observed is image data of a document used for paperwork or the like, the document data stamped on a monochrome image or the document data highlighted in red is displayed. As described above, colors are often used in a small part. Therefore, when image data division processing is performed in the image conversion unit 3B as shown in FIG. 11B, the area excluding the range set in advance as a local area is monochrome binary data or grayscale data. If it is, it can be determined that the document data uses a color locally.

そこで、図7に示すような色領域の抽出処理を画像変換部3Bにおいて行い、刺激制御部3Cにおいて着色領域では黒色領域と異なる振動を発生させる制御信号を生成すれば、ユーザが黒以外の色の存在及び領域を認識することができる。   Therefore, when the color region extraction process shown in FIG. 7 is performed in the image conversion unit 3B and the stimulus control unit 3C generates a control signal that generates vibrations different from the black region in the colored region, the user can select a color other than black. Can recognize the presence and area.

ところで、コンピュータ2がパーソナルコンピュータである場合には、音声出力端子やBeep用スピーカに知覚刺激装置4を接続することによって、既存の構造を変えることなく簡易に刺激制御部3Cから制御信号を知覚刺激装置4に出力させることができる。Beep用スピーカは、周波数と時間を引数とするBeep関数で生成される単純なBeep音の出力を担うスピーカである。この場合、知覚刺激装置4から十分な振動、音又は電圧を発生させるためには、振動子4C、スピーカ4A又は電圧印加装置4Bに増幅器(アンプ)4Dを接続することが必要である。   By the way, when the computer 2 is a personal computer, by connecting the perceptual stimulation device 4 to the audio output terminal or the beep speaker, the control signal can be easily perceived from the stimulation control unit 3C without changing the existing structure. It can be output to the device 4. The Beep speaker is a speaker that is responsible for outputting a simple Beep sound generated by a Beep function with frequency and time as arguments. In this case, in order to generate sufficient vibration, sound, or voltage from the perceptual stimulation device 4, it is necessary to connect an amplifier (amplifier) 4D to the vibrator 4C, the speaker 4A, or the voltage application device 4B.

また、図1には、情報伝達の対象となる2次元画像を出力させるコンピュータ2自体の演算装置5にデータ処理系3を内蔵する例を示したが、別の演算装置を用いてデータ処理系3を構成してもよい。   Further, FIG. 1 shows an example in which the data processing system 3 is built in the computing device 5 of the computer 2 itself that outputs a two-dimensional image that is a target of information transmission, but the data processing system is used by using another computing device. 3 may be configured.

図12は、入出力端子を備えたマイクロコンピュータの演算装置を用いて知覚刺激情報生成システム1を構成した例を示す図である。   FIG. 12 is a diagram illustrating an example in which the perceptual stimulus information generation system 1 is configured using a microcomputer arithmetic device having input / output terminals.

図12に示すように、ユニバーサル・シリアル・バス (USB: Universal Serial Bus)端子20及び出力ポート21を設けたマイクロコンピュータ22の出力ポート21側に知覚刺激装置4を接続することによっても知覚刺激情報生成システム1を構成することができる。この場合、マイクロコンピュータ22の演算装置に知覚刺激情報生成プログラムを読み込ませることによってデータ処理系3が構築される。   As shown in FIG. 12, the perceptual stimulus information is also obtained by connecting the perceptual stimulus device 4 to the output port 21 side of the microcomputer 22 provided with the universal serial bus (USB) terminal 20 and the output port 21. The generation system 1 can be configured. In this case, the data processing system 3 is constructed by causing the arithmetic unit of the microcomputer 22 to read the perceptual stimulus information generation program.

図12に示すように知覚刺激情報生成システム1を構成することによって、アタッチメントとして既存のコンピュータ2Aに接続することができる。このため、コンピュータ2Aの構造を変えることなく簡易にコンピュータ2Aに表示された2次元画像に関する情報を、知覚刺激を利用してユーザに伝達することができる。特に、知覚刺激情報生成システム1を図12に示す構成とすれば、コンピュータ2Aに内蔵されるスピーカ9Aをスクリーンリーダ機能のために利用することができる。従って、スクリーンリーダと知覚刺激の併用によって、一層分かり安くユーザに情報を伝達することが可能となる。   By configuring the perceptual stimulus information generation system 1 as shown in FIG. 12, it can be connected to an existing computer 2A as an attachment. For this reason, the information regarding the two-dimensional image displayed on the computer 2A can be easily transmitted to the user using the perceptual stimulus without changing the structure of the computer 2A. In particular, if the perceptual stimulus information generation system 1 is configured as shown in FIG. 12, the speaker 9A built in the computer 2A can be used for the screen reader function. Therefore, by using the screen reader and the sensory stimulus in combination, information can be transmitted to the user at a lower cost.

次に知覚刺激情報生成システム1の動作および作用について説明する。   Next, the operation and action of the perceptual stimulus information generation system 1 will be described.

図13は、図1に示す知覚刺激情報生成システム1により、コンピュータ2のディスプレイ7に表示された2次元画像を知覚刺激として出力する際の流れを示すフローチャートである。   FIG. 13 is a flowchart showing a flow when the two-dimensional image displayed on the display 7 of the computer 2 is output as a perceptual stimulus by the perceptual stimulus information generation system 1 shown in FIG.

まずステップS1において、画像種類判定部3Aが、コンピュータ2のディスプレイ7に出力される2次元画像データを表示画像生成部10から取得する。   First, in step S <b> 1, the image type determination unit 3 </ b> A acquires the two-dimensional image data output to the display 7 of the computer 2 from the display image generation unit 10.

次に、ステップS2において、画像種類判定部3Aは、取得した2次元画像データの種類を予め設定されたデータ処理方法に従って自動的に行われる。また、必要に応じてユーザが指示入力装置8を操作することによって、2次元画像データのデータ処理方法又は2次元画像データの種類自体を指定する。   Next, in step S2, the image type determination unit 3A automatically performs the type of the acquired two-dimensional image data according to a preset data processing method. In addition, when necessary, the user operates the instruction input device 8 to specify the data processing method of the two-dimensional image data or the type of the two-dimensional image data itself.

次に、ステップS3において、画像変換部3Bは、タッチパネル11等の位置入力装置6から指定位置情報を取得する。すなわち、ユーザが位置入力装置6を操作してディスプレイ7に表示された2次元画像上の位置を指定すると、指定された位置が位置入力装置6から画像変換部3Bにより位置指定情報として取得される。   Next, in step S <b> 3, the image conversion unit 3 </ b> B acquires specified position information from the position input device 6 such as the touch panel 11. That is, when the user operates the position input device 6 to specify a position on the two-dimensional image displayed on the display 7, the specified position is acquired from the position input device 6 as position specifying information by the image conversion unit 3B. .

次に、ステップS4において、画像変換部3Bは、画像種類判定部3Aにおいて判定結果として生成された画像の種類情報に基づいて、指定位置に対応する単位画素領域における2次元画像データの特徴を表し、認識が容易な特徴画像データを生成する。すなわち、画像変換部3Bは、例えば、図2、図4、図5、図6又は図7に示すような画像変換処理の組合せによって指定位置に対応する単位画素領域の特徴画像データを生成する。このとき、予測される指定位置に対応する領域を単位画素領域とすることにより、入出力間における遅延を短くすることができる。   Next, in step S4, the image conversion unit 3B represents the characteristics of the two-dimensional image data in the unit pixel region corresponding to the designated position based on the image type information generated as the determination result in the image type determination unit 3A. The feature image data that is easy to recognize is generated. That is, the image conversion unit 3B generates the feature image data of the unit pixel region corresponding to the designated position by a combination of image conversion processes as shown in FIG. 2, FIG. 4, FIG. 5, FIG. At this time, by setting the region corresponding to the predicted designated position as the unit pixel region, the delay between input and output can be shortened.

そして、画像変換部3Bは、指定位置に対応する単位画素領域における特徴画像データを刺激制御部3Cに与える。   Then, the image conversion unit 3B gives the feature image data in the unit pixel area corresponding to the designated position to the stimulus control unit 3C.

次に、ステップS5において、刺激制御部3Cは、単位画素領域における特徴画像データの画素値に基づいて予め設定された方法に従って知覚刺激装置4及び振動スピーカ9の一方又は双方の制御信号を生成する。この制御信号の生成方法は、指示入力装置8から刺激制御部3Cに指示情報を入力することによって指定することもできる。   Next, in step S5, the stimulus control unit 3C generates a control signal for one or both of the perceptual stimulus device 4 and the vibration speaker 9 according to a preset method based on the pixel value of the feature image data in the unit pixel region. . This method of generating the control signal can also be specified by inputting instruction information from the instruction input device 8 to the stimulus control unit 3C.

次に、ステップS6において、刺激制御部3Cは、生成した制御信号を知覚刺激装置4及び振動スピーカ9の一方又は双方に出力する。これにより、振動を利用して情報をユーザに伝達させる場合には、知覚刺激装置4の振動子4C及び振動スピーカ9が、制御信号に従って指定位置における特徴画像データに応じた振動を発生させる。また、音を利用して情報をユーザに伝達させる場合には、知覚刺激装置4のスピーカ4A及び振動スピーカ9が、制御信号に従って指定位置における特徴画像データに応じた音を発生させる。更に、電気刺激を利用して情報をユーザに伝達させる場合には、知覚刺激装置4の電圧印加装置4Bが制御信号に従って指定位置における特徴画像データに応じた電気刺激を直接的に又は間接的にユーザに与える。   Next, in step S <b> 6, the stimulus control unit 3 </ b> C outputs the generated control signal to one or both of the perceptual stimulus device 4 and the vibration speaker 9. Accordingly, when information is transmitted to the user using vibration, the vibrator 4C and the vibration speaker 9 of the perceptual stimulation device 4 generate vibration according to the feature image data at the designated position according to the control signal. When information is transmitted to the user using sound, the speaker 4A and the vibration speaker 9 of the perceptual stimulation device 4 generate sound corresponding to the feature image data at the designated position according to the control signal. Furthermore, when information is transmitted to the user using electrical stimulation, the voltage application device 4B of the perceptual stimulation device 4 directly or indirectly performs electrical stimulation according to the feature image data at the designated position according to the control signal. Give to the user.

このため、ユーザは、2次元画像の指定位置における画像情報を、情報の種類や属性に応じた知覚刺激として認識することができる。しかも、知覚刺激は、2次元画像を画像の種類に応じて特徴を容易に認識できるように変換して生成された特徴画像に基づいて発生する。従って、ユーザは、2次元画像に関する情報をより容易に認識することができる。   For this reason, the user can recognize the image information at the designated position of the two-dimensional image as a perceptual stimulus according to the type and attribute of the information. Moreover, the perceptual stimulus is generated based on the feature image generated by converting the two-dimensional image so that the feature can be easily recognized according to the type of the image. Therefore, the user can more easily recognize information regarding the two-dimensional image.

つまり以上のような、知覚刺激情報生成システム1は、ディスプレイ7に表示されている2次元画像情報を画像の種類及び目的に応じて一旦簡易化又は特徴化した特徴画像に変換し、タッチパネル11等の位置入力装置6から取得した指定位置に対応する特徴画像に基づいてユーザに振動等による知覚刺激を与えるようにしたものである。   That is, the perceptual stimulus information generation system 1 as described above converts the two-dimensional image information displayed on the display 7 into a simplified or characterized feature image according to the type and purpose of the image, and the touch panel 11 or the like. A perceptual stimulus by vibration or the like is given to the user based on the feature image corresponding to the designated position acquired from the position input device 6.

このため、知覚刺激情報生成システム1によれば、視覚を用いないユーザであってもディスプレイ7に表示されている2次元画像から所望の情報を選択的かつ容易に認識することができる。   Therefore, according to the perceptual stimulus information generation system 1, even a user who does not use vision can selectively and easily recognize desired information from the two-dimensional image displayed on the display 7.

特に、知覚刺激情報生成システム1では、表示されている2次元画像データの局所的な画素値が振動や電気刺激に変換されるのではなく、予め大局的な2次元画像データに基づいて判定された画像の種類に応じて特徴の認識が容易となるように生成された特徴画像データの画素値から振動や電気刺激等の知覚刺激が生成される。しかも、ユーザは、指定位置を入力した位置において知覚刺激を受けたと認識する。このため、視覚を利用しないユーザにとっては、より認識が容易な知覚刺激として2次元画像に関する情報を得ることができる。従って、知覚刺激情報生成システム1は、視覚障害者への2次元画像情報の伝達手段として有効である。   In particular, in the perceptual stimulus information generation system 1, local pixel values of displayed two-dimensional image data are not converted into vibrations or electrical stimuli, but are determined based on global two-dimensional image data in advance. Perceptual stimuli such as vibrations and electrical stimuli are generated from the pixel values of the feature image data generated so as to facilitate feature recognition according to the type of image. In addition, the user recognizes that a perceptual stimulus has been received at the position where the designated position is input. For this reason, for a user who does not use vision, information about a two-dimensional image can be obtained as a perceptual stimulus that is easier to recognize. Therefore, the perceptual stimulus information generation system 1 is effective as a means for transmitting two-dimensional image information to a visually impaired person.

また、知覚刺激情報生成システム1は、構造が簡易であるため、既存のコンピュータ2,2Aに対しても容易に適用することができる。特に、従来の触覚ディスプレイであるピンディスプレイと比較すると、知覚刺激情報生成システム1は構造が簡易であり、かつ安価である。   Moreover, since the perceptual stimulus information generation system 1 has a simple structure, it can be easily applied to the existing computers 2 and 2A. In particular, the perceptual stimulus information generation system 1 has a simple structure and is inexpensive compared to a pin display that is a conventional tactile display.

尚、上述の例では、コンピュータ2,2Aにおいて生成される2次元画像をユーザへの伝達対象とする例について説明したが、コンピュータ2,2A以外の機器において生成される2次元画像をユーザへの伝達対象としてもよい。例えば、アナログ放送又はデジタル放送を受信したテレビに表示された2次元画像、ハードディスク等の記録装置を備えた画像記録装置から出力される2次元画像、DVD (Digital Versatile Disc)等の画像記録媒体に記録された画像を再生する画像再生装置から出力される2次元画像を知覚刺激情報生成システム1によるユーザへの伝達対象とすることができる。このうち、実用性の高い例としては、デジタルテレビ放送におけるデータ表示のレイアウトの認識のために知覚刺激情報生成システム1を用いて知覚刺激を発生させる応用が挙げられる。   In the above-described example, the example in which the two-dimensional image generated in the computers 2 and 2A is the transmission target to the user has been described. However, the two-dimensional image generated in a device other than the computers 2 and 2A is transmitted to the user. It may be a transmission target. For example, a two-dimensional image displayed on a television that has received an analog broadcast or a digital broadcast, a two-dimensional image output from an image recording device equipped with a recording device such as a hard disk, or an image recording medium such as a DVD (Digital Versatile Disc) A two-dimensional image output from an image reproduction device that reproduces a recorded image can be a transmission target to the user by the perceptual stimulus information generation system 1. Among these, as a practical example, there is an application in which a perceptual stimulus is generated using the perceptual stimulus information generation system 1 for recognizing a data display layout in digital television broadcasting.

この場合、伝達対象となる2次元画像データがアナログ信号であれば、アナログ・デジタル変換器(ADC: analog to digital converter)を知覚刺激情報生成システム1に設ければよい。また、タッチパネル11等の位置入力装置6及びディスプレイ7が別途必要であれば、知覚刺激情報生成システム1の構成要素とすればよい。例えば、図1に示すコンピュータ2,2A自体を知覚刺激情報生成システム1の構成要素としてもよい。   In this case, if the two-dimensional image data to be transmitted is an analog signal, an analog-to-digital converter (ADC) may be provided in the perceptual stimulus information generation system 1. Further, if the position input device 6 such as the touch panel 11 and the display 7 are separately required, they may be constituent elements of the perceptual stimulus information generation system 1. For example, the computers 2 and 2 </ b> A themselves shown in FIG. 1 may be components of the sensory stimulus information generation system 1.

また、上述の例では、ユーザへの伝達対象となる情報が2次元画像情報である場合について説明したが、画像以外の2次元情報を伝達対象とすることができる。例えば、表面粗さや材質の違いを表す2次元マップ情報をユーザへの伝達対象とすることができる。上述したように、電気刺激の制御によって、あらゆる触覚を疑似的にユーザに付与することができる。   In the above example, the case where the information to be transmitted to the user is the two-dimensional image information has been described. However, two-dimensional information other than the image can be the transmission target. For example, two-dimensional map information representing a difference in surface roughness and material can be set as a transmission target to the user. As described above, any tactile sensation can be artificially given to the user by controlling the electrical stimulation.

従って、2次元画像としても表示可能な2次元マップ情報の種類が画像種類判定部3Aにおいて2次元表面粗さマップであると判定される場合には、位置入力装置6により指定される位置における表面粗さを模擬する触覚刺激を電気刺激としてユーザに与えることができる。このため、ユーザは所望の物体の表面粗さを実際に物体に触れることなく認識することができる。一方、実際の表面粗さよりも強調した触覚刺激をユーザに与えるようにすれば、知覚刺激情報生成システム1は、表面粗さの増幅検査装置として利用することができる。この場合、熟練を要することなく、ユーザが物体の表面粗さの検査をすることが可能となる。   Therefore, when the type of 2D map information that can be displayed as a 2D image is determined to be a 2D surface roughness map by the image type determination unit 3A, the surface at the position specified by the position input device 6 is used. A tactile stimulus that simulates roughness can be given to the user as an electrical stimulus. For this reason, the user can recognize the surface roughness of a desired object without actually touching the object. On the other hand, if a tactile stimulus that is emphasized more than the actual surface roughness is given to the user, the perceptual stimulus information generation system 1 can be used as an amplification inspection device for the surface roughness. In this case, the user can inspect the surface roughness of the object without skill.

また、2次元マップ情報の種類が2次元材質マップである場合には、材質の肌触りを電気刺激によって模擬することにより、ユーザは実際に物体を触ることなく材質の肌触りを認識することができる。   When the type of the two-dimensional map information is a two-dimensional material map, the user can recognize the touch of the material without actually touching the object by simulating the touch of the material by electrical stimulation.

このため、視覚を用いるユーザであっても視覚に加えて触覚や聴覚を併用して2次元画像情報のみならず様々な2次元情報の内容を認識することができる。特に、知覚刺激情報生成システム1により材質ごとの触覚刺激を模擬すれば、バーチャルリアリティをユーザに体験させることが期待できる。また、伝達対象が2次元画像である場合においても、視覚健常者と視覚障害者との間で知覚刺激のある部分が何を表しているのかといった様々な情報を相互に確認することができる。   For this reason, even a user who uses vision can recognize not only two-dimensional image information but also various contents of two-dimensional information by using tactile sense and hearing in addition to vision. In particular, if a tactile stimulus for each material is simulated by the perceptual stimulus information generation system 1, it can be expected that the user will experience virtual reality. In addition, even when the transmission target is a two-dimensional image, various information such as what a part with a sensory stimulus represents between a normal visual person and a visually impaired person can be mutually confirmed.

(第2の実施形態)
図14は本発明の第2の実施形態に係る知覚刺激情報生成システムの構成図であり、図15は図14に示すマイクロコンピュータ22の機能ブロック図である。尚、図1又は図12に示す第1の実施形態における知覚刺激情報生成システム1と同様の構成要素については、同符号を付して同様な内容については説明を省略する。
(Second Embodiment)
FIG. 14 is a block diagram of a perceptual stimulus information generation system according to the second embodiment of the present invention, and FIG. 15 is a functional block diagram of the microcomputer 22 shown in FIG. In addition, about the component similar to the perceptual stimulus information generation system 1 in 1st Embodiment shown in FIG. 1 or FIG. 12, the same code | symbol is attached | subjected and description is abbreviate | omitted about the same content.

図14に示された、第2の実施形態における知覚刺激情報生成システム1Aは、小型カメラ30、カメラドライバ31、センサ32、知覚刺激装置4、指固定具33、マイクロコンピュータ22及び指示入力装置8を備えている。   The perceptual stimulus information generation system 1A in the second embodiment shown in FIG. 14 includes a small camera 30, a camera driver 31, a sensor 32, a perceptual stimulus device 4, a finger fixture 33, a microcomputer 22, and an instruction input device 8. It has.

小型カメラ30、カメラドライバ31、センサ32及び知覚刺激装置4は、指固定具33に固定される。すなわち、指固定具33は、小型カメラ30、カメラドライバ31、センサ32及び知覚刺激装置4を指に固定する器具である。このため、指固定具33によりユーザの指に小型カメラ30、カメラドライバ31、センサ32及び知覚刺激装置4を固定することができる。   The small camera 30, the camera driver 31, the sensor 32, and the sensory stimulation device 4 are fixed to the finger fixing tool 33. That is, the finger fixing tool 33 is an instrument for fixing the small camera 30, the camera driver 31, the sensor 32, and the sensory stimulation device 4 to the finger. For this reason, the small camera 30, the camera driver 31, the sensor 32, and the sensory stimulation device 4 can be fixed to the user's finger by the finger fixing tool 33.

もちろん、ユーザの指以外の位置を指示する人体の部分に小型カメラ30、カメラドライバ31、センサ32及び知覚刺激装置4を固定してもよい。また、小型カメラ30及びカメラドライバ31は、ユーザに固定しなくてもよい。但し、十分な解像度の2次元画像を撮影する観点から小型カメラ30が指や手に追従して移動するように、ユーザに固定することが望ましい。   Of course, you may fix the small camera 30, the camera driver 31, the sensor 32, and the sensory stimulation apparatus 4 to the part of the human body which instruct | indicates positions other than a user's finger | toe. The small camera 30 and the camera driver 31 may not be fixed to the user. However, it is desirable that the small camera 30 be fixed to the user so that the small camera 30 moves following the finger or hand from the viewpoint of capturing a two-dimensional image with sufficient resolution.

小型カメラ30は、被写体Oの2次元のカラー画像又は白黒画像を静止画又は動画として撮影することが可能な可視光カメラ又は赤外線カメラ等のカメラである。被写体Oは、紙面上の画像等の平面的な2次元画像の他、風景等の立体的なものとすることもできる。また、必要に応じて近接用レンズ30Aが小型カメラ30に設けられる。これにより、被写体Oが紙面に印刷された文章のように細かい対象であっても、局所的に解像度の高い2次元画像を撮影することが可能となる。尚、カメラを指固定具33に固定しない場合には、小型でないカメラを用いてもよい。   The small camera 30 is a camera such as a visible light camera or an infrared camera that can capture a two-dimensional color image or monochrome image of the subject O as a still image or a moving image. The subject O may be a three-dimensional object such as a landscape in addition to a planar two-dimensional image such as an image on paper. In addition, a proximity lens 30A is provided in the small camera 30 as necessary. As a result, even if the subject O is a fine object such as a text printed on paper, a two-dimensional image with a high resolution can be taken locally. In addition, when not fixing a camera to the finger fixing tool 33, you may use the camera which is not small.

カメラドライバ31は、マイクロコンピュータ22からの制御下において、小型カメラ30に制御信号を出力することによって小型カメラ30を制御する装置である。例えば、小型カメラ30には、被写体Oの状況に応じた複数の撮影モードが選択可能に準備される。このような場合、カメラドライバ31は、所望の撮影モードの選択指示を小型カメラ30に与えることができる。例えば、近接用レンズ30Aを用いて解像度の高い画像を撮影する場合には、カメラドライバ31による制御によって絞り撮影モードを選択することができる。   The camera driver 31 is a device that controls the small camera 30 by outputting a control signal to the small camera 30 under the control of the microcomputer 22. For example, the small camera 30 is prepared so that a plurality of shooting modes corresponding to the state of the subject O can be selected. In such a case, the camera driver 31 can give the small camera 30 an instruction to select a desired shooting mode. For example, when a high-resolution image is shot using the proximity lens 30 </ b> A, the aperture shooting mode can be selected under the control of the camera driver 31.

センサ32は、指や手等の位置を指示する人体の部分の位置及び動きの一方又は双方を求めるための空間データを測定する機能を有する。例えば、向きセンサと加速度センサとを用いて、対象物の向き及び加速度を測定すれば、測定した向き及び加速度に基づいて対象物の位置を測定することができる。従って、向きセンサ及び加速度センサを位置センサとして用いることができる。また、方位加速度センサを用いれば、対象物の動きを検知することができる。   The sensor 32 has a function of measuring spatial data for obtaining one or both of the position and the movement of the part of the human body that indicates the position of a finger or a hand. For example, if the direction and acceleration of an object are measured using an orientation sensor and an acceleration sensor, the position of the object can be measured based on the measured direction and acceleration. Therefore, an orientation sensor and an acceleration sensor can be used as a position sensor. Moreover, if a azimuth acceleration sensor is used, the motion of the target can be detected.

マイクロコンピュータ22には、ADC34、デジタル・アナログ変換器(DAC: digital to analog converter)35及び入出力(I/O: input/output)ポート36が設けられる。また、マイクロコンピュータ22に知覚刺激情報生成プログラムを読み込ませることによって、マイクロコンピュータ22はデータ処理系3として機能する。   The microcomputer 22 includes an ADC 34, a digital to analog converter (DAC) 35, and an input / output (I / O) port 36. Further, the microcomputer 22 functions as the data processing system 3 by causing the microcomputer 22 to read the perceptual stimulus information generation program.

ADC34の入力側には、小型カメラ30及びセンサ32の出力側が接続される。このため、小型カメラ30により撮影された画像データ及びセンサ32により測定されたデータのアナログ信号がADC34によりデジタル信号に変換されてマイクロコンピュータ22に入力される。また、DAC35の出力側は、カメラドライバ31及び知覚刺激装置4の入力側と接続される。このため、マイクロコンピュータ22により生成されたデジタル制御信号が、DAC35によりアナログ制御信号に変換されてカメラドライバ31及び知覚刺激装置4に出力される。   The output side of the small camera 30 and the sensor 32 is connected to the input side of the ADC 34. For this reason, the image data captured by the small camera 30 and the analog signal of the data measured by the sensor 32 are converted into digital signals by the ADC 34 and input to the microcomputer 22. The output side of the DAC 35 is connected to the camera driver 31 and the input side of the sensory stimulation device 4. Therefore, the digital control signal generated by the microcomputer 22 is converted into an analog control signal by the DAC 35 and output to the camera driver 31 and the perceptual stimulation device 4.

指示入力装置8は、マイクロコンピュータ22のI/Oポート36に接続される。指示入力装置8は、ボタン等の入力装置で構成される。そして、指示入力装置8の操作によって各種指示情報をマイクロコンピュータ22に入力することができる。   The instruction input device 8 is connected to the I / O port 36 of the microcomputer 22. The instruction input device 8 includes an input device such as a button. Various instruction information can be input to the microcomputer 22 by operating the instruction input device 8.

データ処理系3は、第1の実施形態における知覚刺激情報生成システム1と同様な機能を有する画像種類判定部3A、画像変換部3B及び刺激制御部3Cに加え、カメラ制御部3Dを有する。   The data processing system 3 includes a camera control unit 3D in addition to the image type determination unit 3A, the image conversion unit 3B, and the stimulus control unit 3C having the same functions as those of the perceptual stimulus information generation system 1 in the first embodiment.

カメラ制御部3Dは、カメラドライバ31に制御信号を出力することによって、カメラドライバ31を通じて小型カメラ30の撮影モード等の撮影条件を設定する機能と、小型カメラ30の撮影条件を示す情報を画像種類判定部3A及び画像変換部3Bに与える機能とを有する。   The camera control unit 3D outputs a control signal to the camera driver 31 to set a shooting condition such as a shooting mode of the small camera 30 through the camera driver 31, and information indicating the shooting condition of the small camera 30 as an image type. A function to be given to the determination unit 3A and the image conversion unit 3B.

画像種類判定部3Aは、カメラ制御部3Dから取得した小型カメラ30の撮影条件に応じて小型カメラ30から取得した一部又は全体の2次元画像データの種類を判定する機能を有する。画像データの種類の判定方法は、第1の実施形態において説明した通りである。すなわち、小型カメラ30によりカラー画像が撮影された場合には、位置ごとのRed, Green, Blueの階調を表すRGB値と輝度値とで構成される2次元画像データが画像種類判定部3Aに入力される。そして、RGB値及び輝度値に基づいて、予め設定したデータ処理方法で画像の種類が画像種類判定部3Aにより判定される。   The image type determination unit 3A has a function of determining the type of part or all of the two-dimensional image data acquired from the small camera 30 according to the shooting conditions of the small camera 30 acquired from the camera control unit 3D. The method for determining the type of image data is as described in the first embodiment. That is, when a color image is taken by the small camera 30, two-dimensional image data composed of RGB values and luminance values representing the red, green, and blue gradations for each position is stored in the image type determination unit 3A. Entered. Then, based on the RGB value and the luminance value, the image type determination unit 3A determines the image type by a preset data processing method.

また、画像の種類の判定処理を開始するトリガとして、小型カメラ30の撮影条件を利用することができる。例えば、小型カメラ30の撮影条件が、絞り撮影モード等の局所撮影用のモードでない場合には、情報伝達対象となる小型カメラ30の撮影対象が、ユーザによる位置の指定範囲となる可能性が高い。従って、このような場合に、画像種類判定部3Aが画像データの種類の判定処理を自律的に行うように構成することができる。   Further, the shooting condition of the small camera 30 can be used as a trigger for starting the image type determination process. For example, when the shooting condition of the small camera 30 is not a mode for local shooting such as an aperture shooting mode, the shooting target of the small camera 30 that is a target of information transmission is likely to be a position designation range by the user. . Therefore, in such a case, the image type determination unit 3A can be configured to autonomously perform the image data type determination process.

撮影モードが局所撮影用のモードであるか否かは、カメラ制御部3Dから取得した撮影モードの選択情報に基づく判定の他、小型カメラ30の焦点距離に対する閾値処理判定によっても行うことができる。例えば、焦点距離が30cm程度である場合には、焦点距離が閾値を超えているため、撮影目的が撮影対象の大まかな把握であると判定することができる。このため、画像の種類の判定処理が実行される。逆に、焦点距離が1cm程度であれば、撮影対象の局所的な位置を指定して詳細情報を取得することが撮影目的であると判定することができる。このため、画像の種類の判定処理は実行されない。   Whether or not the shooting mode is a mode for local shooting can be determined not only by determination based on selection information of the shooting mode acquired from the camera control unit 3D but also by threshold processing determination for the focal length of the small camera 30. For example, when the focal length is about 30 cm, the focal length exceeds the threshold value, so it can be determined that the shooting purpose is a rough grasp of the shooting target. For this reason, an image type determination process is executed. On the other hand, if the focal length is about 1 cm, it can be determined that the purpose of photographing is to designate the local position of the photographing target and acquire detailed information. For this reason, the image type determination process is not executed.

画像変換部3Bは及び刺激制御部3Cも第1の実施形態と同様の機能を有する。但し、画像変換部3Bは、センサ32から位置データや加速度データ等の各種空間データを取得し、取得した空間データに基づいて画像の種類の判定対象となったデータ領域における指等の人体の部分の絶対位置を求めるように構成される。そして、求めた絶対位置が刺激制御部3Cに与えられる特徴画像データに対応する指定位置とみなされる。   The image conversion unit 3B and the stimulus control unit 3C have the same functions as those in the first embodiment. However, the image conversion unit 3B acquires various spatial data such as position data and acceleration data from the sensor 32, and a part of a human body such as a finger in a data region that is a target of image type determination based on the acquired spatial data. Is configured to determine the absolute position of. The obtained absolute position is regarded as a designated position corresponding to the feature image data given to the stimulus control unit 3C.

また、第1の実施形態において位置入力装置6から入力される指定位置と同様に、センサ32の測定データから推定される指定位置が静止しているか移動しているかに応じて画像変換処理方法を変更するモードを準備することができる。例えば、所定の時間を超えてセンサ32が静止した場合には、画像変換部3Bにおける画像変換処理方法を、より局所的で詳細な特徴画像データを生成する画像変換処理方法に切り換えることができる。   In addition, similarly to the designated position input from the position input device 6 in the first embodiment, the image conversion processing method is changed depending on whether the designated position estimated from the measurement data of the sensor 32 is stationary or moving. A mode to change can be prepared. For example, when the sensor 32 is stationary for a predetermined time, the image conversion processing method in the image conversion unit 3B can be switched to an image conversion processing method for generating more local and detailed feature image data.

このように構成された知覚刺激情報生成システム1Aによれば、2次元画像が画像信号として出力されない場合であっても、2次元画像の種類及び目的に応じて2次元画像から簡易化又は特徴化した特徴画像データを生成し、センサ32からの測定データに基づいて推定した指定位置に対応する特徴画像に応じた知覚刺激をユーザに与えることができる。   According to the perceptual stimulus information generation system 1A configured as described above, even if a two-dimensional image is not output as an image signal, simplification or characterization from the two-dimensional image according to the type and purpose of the two-dimensional image. Thus, it is possible to generate the feature image data, and to give the user a perceptual stimulus corresponding to the feature image corresponding to the designated position estimated based on the measurement data from the sensor 32.

具体的には、まず指に指固定具33を介して小型カメラ30が固定される。そして、指示入力装置8の操作によってカメラ制御部3D及びカメラドライバ31を通じて小型カメラ30が制御され、小型カメラ30の撮影モードが30cm程度の焦点距離で観察対象全体を撮影するモードに設定される。   Specifically, first, the small camera 30 is fixed to the finger via the finger fixing tool 33. Then, the small camera 30 is controlled by the operation of the instruction input device 8 through the camera control unit 3D and the camera driver 31, and the photographing mode of the small camera 30 is set to a mode for photographing the entire observation target with a focal length of about 30 cm.

次に、指示入力装置8の操作によってカメラ制御部3D及びカメラドライバ31を通じて小型カメラ30が制御され、観察対象全体が小型カメラ30によって撮影される。このときカメラ制御部3Dから撮影モード情報が画像種類判定部3Aに与えられる。そうすると、画像種類判定部3Aは、小型カメラ30から2次元画像を取得し、2次元画像の種類の判定処理を行う。判定結果は、画像変換部3Bに与えられる。一方、このときの撮影条件から特定される2次元画像の位置に対するセンサ32の相対位置がセンサ32の2次元画像に対する絶対的な初期位置とされ、画像変換部3Bに出力される。   Next, the small camera 30 is controlled by the operation of the instruction input device 8 through the camera control unit 3 </ b> D and the camera driver 31, and the entire observation target is photographed by the small camera 30. At this time, shooting mode information is given from the camera control unit 3D to the image type determination unit 3A. Then, the image type determination unit 3A acquires a two-dimensional image from the small camera 30 and performs a determination process for the type of the two-dimensional image. The determination result is given to the image conversion unit 3B. On the other hand, the relative position of the sensor 32 with respect to the position of the two-dimensional image specified from the imaging conditions at this time is set as an absolute initial position of the sensor 32 with respect to the two-dimensional image, and is output to the image conversion unit 3B.

次に、指示入力装置8の操作によってカメラ制御部3D及びカメラドライバ31を通じて小型カメラ30が制御され、小型カメラ30の撮影モードが絞り撮影モードに設定される。そして、ユーザが情報を得ようとする位置に指を移動させ、指示入力装置8の操作によって絞り撮影モードで近接画像の撮影を行う。そうすると、指とともに移動したセンサ32からは向き、加速度、方位加速度等の測定データが、小型カメラ30からは局所的な2次元画像データが、それぞれ画像変換部3Bに出力される。   Next, the small camera 30 is controlled by the operation of the instruction input device 8 through the camera control unit 3D and the camera driver 31, and the photographing mode of the small camera 30 is set to the aperture photographing mode. Then, the user moves his / her finger to a position where information is to be obtained, and a close-up image is shot in the aperture shooting mode by operating the instruction input device 8. Then, measurement data such as direction, acceleration, and azimuth acceleration is output from the sensor 32 that has moved with the finger, and local two-dimensional image data is output from the small camera 30 to the image conversion unit 3B.

次に、画像変換部3Bは、センサ32の測定データと初期位置とから2次元画像に対する指による指定位置を推定する。また、画像変換部3Bは、2次元画像の種類に対応する画像変換処理によって、絞り撮影モードで撮影された2次元画像を特徴画像データに変換する。そして、画像変換部3Bは、指定位置に対応する単位画素領域における特徴画像データを刺激制御部3Cに与える。   Next, the image conversion unit 3B estimates a designated position by a finger with respect to the two-dimensional image from the measurement data of the sensor 32 and the initial position. Further, the image conversion unit 3B converts the two-dimensional image photographed in the aperture photographing mode into feature image data by image conversion processing corresponding to the type of the two-dimensional image. Then, the image conversion unit 3B gives the feature image data in the unit pixel area corresponding to the designated position to the stimulus control unit 3C.

更に、図13のステップS5及びステップS6と同様な流れで特徴画像に応じた知覚刺激がユーザに与えられる。このため、ユーザは小型カメラ30の絞り撮影モードで撮影された2次元画像の局所位置における情報を知覚刺激として認識することができる。   Further, a perceptual stimulus corresponding to the feature image is given to the user in the same flow as steps S5 and S6 of FIG. For this reason, the user can recognize the information at the local position of the two-dimensional image photographed in the aperture photographing mode of the small camera 30 as a perceptual stimulus.

(他の実施形態)
以上、特定の実施形態について記載したが、記載された実施形態は一例に過ぎず、発明の範囲を限定するものではない。ここに記載された新規な方法及び装置は、様々な他の様式で具現化することができる。また、ここに記載された方法及び装置の様式において、発明の要旨から逸脱しない範囲で、種々の省略、置換及び変更を行うことができる。添付された請求の範囲及びその均等物は、発明の範囲及び要旨に包含されているものとして、そのような種々の様式及び変形例を含んでいる。
(Other embodiments)
Although specific embodiments have been described above, the described embodiments are merely examples, and do not limit the scope of the invention. The novel methods and apparatus described herein can be implemented in a variety of other ways. Various omissions, substitutions, and changes can be made in the method and apparatus described herein without departing from the spirit of the invention. The appended claims and their equivalents include such various forms and modifications as are encompassed by the scope and spirit of the invention.

1、1A 知覚刺激情報生成システム
2,2A コンピュータ
3 データ処理系
3A 画像種類判定部
3B 画像変換部
3C 刺激制御部
3D カメラ制御部
4 知覚刺激装置
4A スピーカ
4B 電圧印加装置
4C 振動子
4D 増幅器
5 演算装置
6 位置入力装置
7 ディスプレイ
8 指示入力装置
9 振動スピーカ
10 表示画像生成部
11 タッチパネル
11A タッチペン
20 USB端子
21 出力ポート
22 マイクロコンピュータ
30 小型カメラ
30A 近接用レンズ
31 カメラドライバ
32 センサ
33 指固定具
34 ADC、
35 DAC
36 I/Oポート
O 被写体
DESCRIPTION OF SYMBOLS 1, 1A Perceptual stimulus information generation system 2, 2A Computer 3 Data processing system 3A Image type determination part 3B Image conversion part 3C Stimulation control part 3D Camera control part 4 Perceptual stimulus apparatus 4A Speaker 4B Voltage application apparatus 4C Vibrator 4D Amplifier 5 Operation Device 6 Position input device 7 Display 8 Instruction input device 9 Vibration speaker 10 Display image generation unit 11 Touch panel 11A Touch pen 20 USB terminal 21 Output port 22 Microcomputer 30 Small camera 30A Proximity lens 31 Camera driver 32 Sensor 33 Finger fixing tool 34 ADC ,
35 DAC
36 I / O port O Subject

Claims (7)

2次元画像を取得して前記2次元画像の種類を判定する種類判定手段と、
前記2次元画像に含まれるテキスト画像データをぼかす処理及び前記2次元画像に含まれる特定の色領域の拡張処理の少なくとも一方を含む画像変換処理であって、前記2次元画像の種類に応じた前記2次元画像に対する画像変換処理によって、前記2次元画像の指定位置に対応する単位領域における特徴を表す特徴情報を生成する情報変換手段と、
前記特徴情報に応じた知覚刺激が前記2次元画像のユーザに付与されるように知覚刺激装置を制御する制御手段と、
を備える知覚刺激情報生成システム。
And determining the type determining unit a type of the 2-dimensional images by acquiring two-dimensional images,
An image conversion process including at least one of a process of blurring text image data included in the two-dimensional image and an expansion process of a specific color region included in the two-dimensional image, wherein the image conversion process is performed according to the type of the two-dimensional image. the image conversion processing with respect to the two-dimensional image, the information converting unit for generating feature information indicating a feature in the unit area corresponding to the designated position of the two-dimensional image,
Control means for controlling the perceptual stimulus device so that the perceptual stimulus according to the feature information is given to the user of the two-dimensional image ;
A perceptual stimulus information generation system comprising:
前記情報変換手段は、前記2次元画像を表示させるとともに前記指定位置を入力するためのタッチパネルから前記指定位置を取得するように構成され、
前記制御手段は、前記タッチパネル又は前記ユーザの指を振動させる振動子を制御するように構成される請求項1記載の知覚刺激情報生成システム。
The information conversion means is configured to display the two-dimensional image and acquire the designated position from a touch panel for inputting the designated position,
The perceptual stimulus information generation system according to claim 1, wherein the control unit is configured to control a vibrator that vibrates the touch panel or the user's finger.
前記情報変換手段は、前記指定位置の履歴情報に応じて前記画像変換処理を変更するように構成される請求項1記載の知覚刺激情報生成システム。 The perceptual stimulus information generation system according to claim 1, wherein the information conversion unit is configured to change the image conversion process according to history information of the designated position. 前記情報変換手段は、前記指定位置の履歴情報から予測される位置を中心とする単位領域における特徴を表す特徴情報を生成するように構成される請求項1記載の知覚刺激情報生成システム。   The perceptual stimulus information generation system according to claim 1, wherein the information conversion unit is configured to generate feature information representing a feature in a unit region centered on a position predicted from history information of the designated position. 前記2次元画像を撮影する撮影手段と、
前記ユーザの位置を指示する部分に取り付けられ、前記指定位置を求めるための前記部分の空間データを測定するセンサと、
を更に備える請求項1記載の知覚刺激情報生成システム。
Photographing means for photographing the two-dimensional image ;
A sensor attached to a part indicating the position of the user and measuring spatial data of the part for obtaining the designated position;
The perceptual stimulus information generation system according to claim 1, further comprising:
2次元画像を取得して前記2次元画像の種類を判定するステップと、
前記2次元画像に含まれるテキスト画像データをぼかす処理及び前記2次元画像に含まれる特定の色領域の拡張処理の少なくとも一方を含む画像変換処理であって、前記2次元画像の種類に応じた前記2次元画像に対する画像変換処理によって、前記2次元画像の指定位置に対応する単位領域における特徴を表す特徴情報を生成するステップと、
前記特徴情報に応じた知覚刺激が前記2次元画像のユーザに付与されるように知覚刺激装置を制御するステップと、
を有する知覚刺激情報生成方法。
And determining the type of the 2-dimensional images by acquiring two-dimensional images,
An image conversion process including at least one of a process of blurring text image data included in the two-dimensional image and an expansion process of a specific color region included in the two-dimensional image, wherein the image conversion process is performed according to the type of the two-dimensional image. the image conversion processing with respect to the two-dimensional image, and generating a feature information indicating a feature in the unit area corresponding to the designated position of the two-dimensional image,
Controlling a perceptual stimulus device so that a perceptual stimulus according to the feature information is given to a user of the two-dimensional image ;
A method for generating perceptual stimulus information.
コンピュータを、
2次元画像を取得して前記2次元画像の種類を判定する種類判定手段、
前記2次元画像に含まれるテキスト画像データをぼかす処理及び前記2次元画像に含まれる特定の色領域の拡張処理の少なくとも一方を含む画像変換処理であって、前記2次元画像の種類に応じた前記2次元画像に対する画像変換処理によって、前記2次元画像の指定位置に対応する単位領域における特徴を表す特徴情報を生成する情報変換手段、及び
前記特徴情報に応じた知覚刺激が前記2次元画像のユーザに付与されるように知覚刺激装置を制御する制御手段、
として機能させる知覚刺激情報生成プログラム。
Computer
Determining type determining unit a type of the 2-dimensional images by acquiring two-dimensional images,
An image conversion process including at least one of a process of blurring text image data included in the two-dimensional image and an expansion process of a specific color region included in the two-dimensional image, wherein the image conversion process is performed according to the type of the two-dimensional image. the image conversion processing with respect to two-dimensional images, the user of the information conversion means for generating feature information indicating a feature in the unit area corresponding to the designated position of the two-dimensional images, and sensory stimulation the 2-dimensional image corresponding to the feature information Control means for controlling the sensory stimulation device to be applied to,
Perceptual stimulus information generation program to function as.
JP2010232035A 2010-10-14 2010-10-14 Perceptual stimulus information generation system Expired - Fee Related JP5598981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010232035A JP5598981B2 (en) 2010-10-14 2010-10-14 Perceptual stimulus information generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232035A JP5598981B2 (en) 2010-10-14 2010-10-14 Perceptual stimulus information generation system

Publications (2)

Publication Number Publication Date
JP2012084096A JP2012084096A (en) 2012-04-26
JP5598981B2 true JP5598981B2 (en) 2014-10-01

Family

ID=46242861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232035A Expired - Fee Related JP5598981B2 (en) 2010-10-14 2010-10-14 Perceptual stimulus information generation system

Country Status (1)

Country Link
JP (1) JP5598981B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9280206B2 (en) * 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
JP6125411B2 (en) * 2013-11-21 2017-05-10 京セラ株式会社 Information transmission device, information transmission method and program
JPWO2015121958A1 (en) * 2014-02-14 2017-03-30 富士通株式会社 Electronic device, input device, and drive control method for electronic device
JP6632429B2 (en) * 2016-03-07 2020-01-22 シャープ株式会社 Information display device and information display method
JP6837536B2 (en) * 2019-12-10 2021-03-03 シャープ株式会社 Touch panel device, touch panel display device, information display device and touch detection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4567817B2 (en) * 1997-09-11 2010-10-20 ソニー株式会社 Information processing apparatus and control method thereof
JP2000148393A (en) * 1998-11-06 2000-05-26 Minolta Co Ltd Visual and touch sense information transmitting device
JP2001242781A (en) * 2000-02-28 2001-09-07 Nec Corp Tactual pin display device and recording medium for realizing tactual pin display device by computer
JP2003225266A (en) * 2002-01-31 2003-08-12 Yuuzo Tsunetomo Apparatus type guide dog
US20060024647A1 (en) * 2004-07-30 2006-02-02 France Telecom Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback
JP4972011B2 (en) * 2008-02-26 2012-07-11 日本放送協会 Tactile presentation device and tactile presentation method
JP2010034833A (en) * 2008-07-29 2010-02-12 Ntt Docomo Inc Mobile terminal device

Also Published As

Publication number Publication date
JP2012084096A (en) 2012-04-26

Similar Documents

Publication Publication Date Title
JP6840702B2 (en) Friction Modulation for 3D Relief in Tactile Devices
CN107708483B (en) Method and system for extracting motion characteristics of a user to provide feedback to the user using hall effect sensors
CN104714733B (en) Image processing equipment and sense of touch control method
US9280206B2 (en) System and method for perceiving images with multimodal feedback
EP2496196B1 (en) Representing visual images by alternative senses
JP5598981B2 (en) Perceptual stimulus information generation system
EP3525164A1 (en) Image processing apparatus and image processing method
CN107708624B (en) Portable system allowing blind or visually impaired people to understand the surroundings acoustically or by touch
TW201506806A (en) Method for gaze tracking
CN109147024A (en) Expression replacing options and device based on threedimensional model
US11003286B2 (en) Touch panel system, intercommunication-type touch panel system and recording medium
CN109147037A (en) Effect processing method, device and electronic equipment based on threedimensional model
CN102331838A (en) Method for expressing vibration tactility of image based on depth contour
CN109906600A (en) Simulate the depth of field
JP5994301B2 (en) Image processing apparatus, information processing apparatus, method, program, and recording medium
CN109285214A (en) Processing method, device, electronic equipment and the readable storage medium storing program for executing of threedimensional model
JPWO2019021456A1 (en) Learning device, recognition device, learning method, recognition method, and program
US9292947B2 (en) Image processing apparatus and an image processing method for generating mosaic image(s)
US10558850B2 (en) Body information analysis apparatus and method of simulating face shape by using same
JP6063274B2 (en) Tactile presentation control device and tactile presentation control program
RU2649422C2 (en) Method of image conversion to sound image
JP2010055404A (en) Image processing method and image processing apparatus
JP6172748B2 (en) Electrotactile presentation device, program, and recording medium
JP6806040B2 (en) Image generators, display systems, and programs
Kalampalikis et al. Design of a vision substitution vibrotactile vest for the visually impaired

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140807

R150 Certificate of patent or registration of utility model

Ref document number: 5598981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees