JP5685177B2 - 情報伝達システム - Google Patents
情報伝達システム Download PDFInfo
- Publication number
- JP5685177B2 JP5685177B2 JP2011271160A JP2011271160A JP5685177B2 JP 5685177 B2 JP5685177 B2 JP 5685177B2 JP 2011271160 A JP2011271160 A JP 2011271160A JP 2011271160 A JP2011271160 A JP 2011271160A JP 5685177 B2 JP5685177 B2 JP 5685177B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sound source
- image
- information
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 title claims description 15
- 230000005236 sound signal Effects 0.000 claims description 78
- 238000000926 separation method Methods 0.000 claims description 74
- 230000004807 localization Effects 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 42
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 7
- 238000000034 method Methods 0.000 description 78
- 239000011159 matrix material Substances 0.000 description 65
- 230000008569 process Effects 0.000 description 47
- 238000004891 communication Methods 0.000 description 29
- 238000003702 image correction Methods 0.000 description 28
- 230000015572 biosynthetic process Effects 0.000 description 22
- 238000003786 synthesis reaction Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 239000013598 vector Substances 0.000 description 18
- 238000012937 correction Methods 0.000 description 16
- 238000012546 transfer Methods 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B5/00—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/8006—Multi-channel systems specially adapted for direction-finding, i.e. having a single aerial system capable of giving simultaneous indications of the directions of different signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Manipulator (AREA)
Description
以下、図面を参照しながら本発明の実施形態について説明する。
情報伝達システム1は、ロボット10、情報提示装置20及びネットワーク30を含んで構成される。
ロボット10は、自己の位置や姿勢を変化させるロボット、例えば頭部を水平方向に回転させ、2足歩行で移動する人型ロボットである。なお、ロボット10は、2足歩行する人型ロボットに限らず、回転する車輪を備え自律的に移動する車輪型ロボットや、人間が搭乗して移動を支援する人搭乗型ロボットであってもよい。
ロボット10は、情報取得部11を備える。情報取得部11は、その周囲の環境を表す音声情報と画像情報を取得し、取得した音声情報と画像情報を情報提示装置20に送信する。ロボット10は、情報提示装置20から受信した制御情報に基づいて、動作を制御する。
情報提示装置20は、使用者による操作入力を検知し、ロボット10の動作に係る制御情報を生成する。生成した制御情報をロボット10に送信する。
図1は、本実施形態に係るロボット10の構成を表す概略図である。
ロボット10は、情報取得部11、通信部104、位置情報取得部105、動作制御部106及び動作機構部107を含んで構成される。
情報取得部11は、音声情報入力部101及び画像情報入力部102を含んで構成される。
収音部1011−1〜1011−Nは、それぞれ空気の振動である音波を電気信号に変換する電気音響変換器、例えば、マイクロホンである。収音部1011−1〜1011−Nは、それぞれ変換した電気信号を、チャネル毎のアナログ音声信号として音声符号化部1012に出力する。
撮影部1021は、被写体を表す画像を撮影し、撮影した画像を表す画像信号を生成する。撮影部1021は、例えば、CCD(Charge Coupled Device)カメラ、又はCMOS(Complementary Metal Oxide Semiconductor)カメラである。撮影部1021は、例えば、ロボット10の頭部正面に配置されている。撮影部1021が生成した画像信号は、平面上に配置された予め定めた数の画素毎の信号値を含む。この画像信号は、例えば、画素毎に3色(赤色(R)、緑色(G)、青色(B))の色信号値を含むRGB色モデルに基づく画像信号である。撮影部1021は、生成した画像信号を画像補正部1022に出力する。
画像補正部1022は、変換した画像信号に含まれる信号値の座標を、画像補正信号が表す座標補正量だけ移動させて、移動を相殺又は低減するように画像を補正し、補正した画像信号を生成する。
ここで、画像補正部1022は、画像信号を補正する前に、入力された画像信号に含まれる信号値を画素間で補間し、より解像度が高い画像信号に変換(オーバーサンプリング;oversampling)してもよい。その場合、画像補正部1022は、補正した画像信号の解像度を、入力された画像信号と同一の解像度に低減した画像信号を出力する。これにより、補正の精度を向上させることができる。
なお、画像補正部1022は、撮影部1021が備える撮像素子を画像補正信号に基づいて画像の移動が相殺又は低減するように駆動させることで画像信号を補正してもよい。
画像補正信号が入力されなかった場合には、画像補正部1022は、入力された画像信号を補正せずに画像符号化部1023に出力してもよい。
なお、符号化方式が可変ビットレート(variable bit rate)である場合には、画像符号化部1023は、動作制御部106から入力されたレート補正信号が表すビットレートに、符号化を行う際のビットレートを変更する。ここで、レート補正信号は、符号化された画像符号のビットレートを変更することを表す信号である。画像のビットレートは、1秒間当たりのフレーム数であるフレームレートと1フレーム当たりの画素数である解像度によって定められる。例えば、符号化方式H.264では、15通り(level)のフレームレートと解像度の組み合わせのうち、何れかを用いることが規定されている。この符号化方式では、ビットレートが高いほど、大きいレベル数が定められている。レート補正信号は、符号化方式で定められているフレームレート、解像度、又はこれらの組み合わせを表す信号であってもよい。レート補正信号が入力されない場合には、画像符号化部1023は、予め定めたビットレート、又は直前に設定されたビットレートで画像符号化を行う。
位置情報取得部105は、生成した位置情報を動作制御部106に出力する。
動作制御部106は、通信部104から入力された制御情報に対応する電力モデル情報を記憶部から読み出す。動作制御部106は、読み出した電力モデル情報を参照して位置情報取得部105から入力された位置情報に対応する部品毎の電力値を定める。動作制御部106は、定めた電力値をもつ電力を、動作機構部107の該当する部品に出力する。
動作制御部106は、画像符号化部1023が用いる符号化方式に応じたビットレートの段階を表し、算出した変位が大きいほど、より低いビットレート(フレームレート、解像度)を表すレート補正信号を生成する。
動作制御部106は、生成した画像補正信号を画像補正部1022に出力し、レート補正信号を画像符号化部1023に出力する。
図2は、本実施形態に係る撮影部1021及び収音部1011−1〜1011−Nの配置例を表す平面図である。
図2の中央部にロボット10を表す。ロボット10の中央に位置する、塗りつぶした円はロボット10の頭部31を表す。図2において左上の方向が、ロボット10の正面方向である。ロボット10の頭部31から正面方向に延びる一点鎖線は撮影部1021の光軸32の方向を表す。図2は、撮影部1021は、ロボット10の頭部31の正面に光軸32が向くように設置されていることを表す。
横縞で塗りつぶした矩形は、ロボット10の胴体部33を表す。収音部1011−1〜1011−Nが、ロボット10の胴体部正面に等間隔で水平方向に配置されていることを表す。収音部1011−1〜1011−Nの方向は、各々ロボット10の正面方向である。
図3は、本実施形態に係る情報提示装置の構成を表す概略図である。
情報提示装置20は、通信部201、音声復号(audio decoding)部202、音源定位(sound source localization)部203、音源分離(sound source separation)部204、音声検出(speech detection)部205、音声認識(speech recognition)部206、表示情報生成部207、画像復号(video decoding)部208、表示画像合成部209、画像表示部210、操作入力部211、音源選択部212、音声出力部213、及び制御情報生成部214を含んで構成される。
音源定位部203は、推定した音源毎の方向を表す音源方向情報を音源分離部204、表示情報生成部207及び制御情報生成部214に出力する。音源定位部203は、音声復号部202から入力されたチャネル毎の音声信号を音源分離部204に出力する。
音源分離部204は、分離した音声信号を音源別音声信号として音声検出部205及び音声出力部213に出力する。
音声認識部206は、例えば、音源別音声信号に基づいて音響特徴量を算出し、音響モデルを用いて算出した音響特徴量に対応した音韻情報の候補を定める。音声認識部206は、音響特徴量として、例えばメル尺度ケプストラム(Mel−scale cepstrum)を用いてもよい。音声認識部206は、言語モデルを用いて、定めた音韻情報の候補に対応する単語情報の候補を定める。音声認識部206は、定めた単語情報の候補の中で最も尤度が高い単語情報を表すテキスト情報を定める。音声認識部206は、音響モデルや言語モデルとして、例えば、隠れマルコフモデル(Hidden Markov Model;HMM)を用いてもよい。
音声認識部206は、生成した音源毎のテキスト情報を表示情報生成部207に出力する。
図4は、画像座標系の一例を表す概念図である。
図4の右下に表示されている点Oは、焦点である。焦点Oから左上に向かう一点鎖線は、撮影部1021の光軸、つまりZ軸を示す。Z軸と中心点Cで交わる破線で表す矩形は、撮影面を表す。撮影面はZ軸と直交している。点Cから右に向かう実線は、撮影面の水平方向に向かうX軸を表し、点Cから右下に向かう実線は、撮影面の垂直方向に向かうY軸を表す。また、図4では、X軸上における撮像面の左端をXL、右端をXRと表す。
ここで、左端XLと焦点Oを結ぶ線分と右端XRと焦点Oを結ぶ線分のなす角が視野角(viewing angle;画角とも呼ばれる)Φである。つまり、撮影部1021の視野角Φの範囲内の方向φの物体の画像が撮影される。例えば、図4において、人物Aの方向と人物Bの方向は、視野角Φの範囲内にあるため、それらの画像が撮影される。人物Dは、視野角Φの範囲外にあるため、その画像は撮影されない。人物A、B、Dは、発話すれば、各々音源となる。
表示情報生成部207は、音源方向φに対応する表示座標のX軸方向の座標値Xを、例えば、式(1)を用いて算出する。
表示情報生成部207は、表示座標のY軸成分として予め定めた座標値、例えば0(垂直方向の中心)を定める。
表示情報生成部207は、生成又は更新した表示情報を表示画像合成部209に出力する。
表示画像合成部209は、生成した表示画像信号を画像表示部210に出力する。
音源選択部212は、抽出した表示楕円パターン画像情報、曲線パターン画像情報又は指示パターン画像情報が表す水平方向の座標値、もしくは、その座標値の最大値と最小値の間に表示領域が含まれる発話パターン画像情報が少なくとも1つあるか否か判断する。その発話パターン画像情報がある場合、音源選択部212は、その発話パターン画像情報に対応する音源を選択する。その音源が複数ある場合には、音源選択部212は、その複数の音源を全て選択する。音源選択部212は、選択した音源を表す選択音源情報を音声出力部213と表示情報生成部207に出力する。
パターン画像情報の全部又は一部が消去された場合、音源選択部212は、消去されたパターン画像情報に対応する音源を選択された音源から除外する。その音源が複数ある場合には、音源選択部212は、その複数の音源をすべて除外する。音源選択部212は、除外した音源を表す選択音源情報を音声出力部213に出力する。
制御情報生成部214は、抽出した水平方向の座標値、もしくは、その座標値の最大値と最小値の間に、範囲外音源表示座標に表示された発話パターン画像情報又は再生パターン画像情報があるか否かを判断する。その発話パターン画像情報又は再生パターン画像情報がある場合、制御情報生成部214は、その発話パターン画像情報又は再生パターン画像情報に対応する音源を選択する。その音源が複数ある場合には、制御情報生成部214は、例えば、正面方向からの角度が最も小さい方向に対応する1つの音源を選択する。
制御情報生成部214は、選択した音源の方向にロボット10が頭部を向けることを表す制御信号を生成する。制御情報生成部214は、生成した制御信号を通信部201に出力する。
図5は、本実施形態に係る情報提示処理を表すフローチャートである。
(ステップS101)ロボット10の音声符号化部1012は、収音部1011−1〜1011−Nから入力されたチャネル毎のアナログ音声信号を、それぞれA/D変換しチャネル毎のディジタル音声信号を生成する。音声符号化部1012は、生成したディジタル音声信号を予め定めた符号化方式を用いて符号化し、チャネル毎の音声符号を生成する。音声符号化部1012は、生成したチャネル毎の音声符号を多重化した音声情報を、情報提示装置20の音声復号部202に送信する。
音声復号部202は、ロボット10の音声符号化部1012から受信した音声情報をチャネル毎の音声符号に分離する。音声復号部202は、分離した音声符号を復号して音声信号をチャネル毎に生成する。音声復号部202は、生成したチャネル毎の音声信号を音源定位部203に出力する。その後、ステップS102に進む。
画像復号部208は、ロボット10の画像符号化部1023から受信した画像符号を復号して画像信号を生成する。画像復号部208は、生成した画像信号を表示画像合成部209に出力する。その後、ステップS103に進む。
表示情報生成部207は、音声検出部205から入力された音声検出情報が音声区間であることを表す場合、記憶部から発話パターン画像情報を読み出す。表示情報生成部207は、読み出した発話パターン画像情報が表す画像が、変換した表示座標に含まれる画像を表す表示情報を生成する。
音源方向情報が表す音源方向φが、視野角Φの範囲外である場合には、表示情報生成部207は、読み出した発話パターン画像情報が表す画像が、範囲外音源表示座標に含まれる画像を表す表示情報を生成する。表示情報生成部207は、生成した表示情報を表示画像合成部209に出力する。その後、ステップS107に進む。
画像表示部210は、表示画像合成部209から入力された表示画像信号が表す画像を表示する。その後、ステップS108に進む。
音源選択部212は、抽出した表示楕円パターン画像情報、曲線パターン画像情報又は指示パターン画像情報が表す水平方向の座標値、もしくは、その座標値の最大値と最小値の間に表示領域が含まれる発話パターン画像情報があるか否か判断する。その発話パターン画像情報がある場合、音源選択部212は、その発話パターン画像情報に対応する音源を選択する。音源選択部212は、選択した音源を表す選択音源情報を音声出力部213と表示情報生成部207に出力する。その後、ステップS110に進む。
その後、ステップS111に進む。
画像表示部210は、表示画像合成部209から入力された表示画像信号が表す画像を表示する。その後、処理を終了する。
図6は、発話パターン画像を含む表示画像の一例を表す概念図である。
図6に示す表示画像61は、左下部に人物Aの画像63と中央右寄りに人物Bの画像64を表す。図67の中央左側に、格子模様が付され、中心にスピーカの図案を含む矩形は、発話パターン画像2051である。画像2051の中心点における水平方向の座標は、人物Aの水平方向の座標と同一である。これにより、人物Aが発話していることを利用者は認識することができる。また、図6の下端に利用者に対して音源選択を促すテキスト62「聞きたい音を選んで下さい」が表されている。
図7は、指示パターン画像を含む表示画像の一例を表す概念図である。
図7に示す表示画像71は、左下部に人物Aの画像73と中央右寄りに人物Bの画像74を表す。人物Bの頭部に、発話パターン画像2052が配置されている。
図7の左上端に、発話パターン画像2053が配置されている。この位置は、上述の範囲外音源表示座標に相当する。言い換えれば、画像2053は、対応する音源の音源方向φが視野角Φの範囲外であることを示す。画像2053に終点が向いている矢印2054は、指示パターン画像2054である。画像2054の右側には、利用者に画像の表示範囲外に音源が存在することを表すテキスト75「範囲外に音源があります」が表示されている。これにより、人物B以外に、表示範囲外に発話している音源があることを利用者は認識することができる。そして、利用者は、表示範囲外にある音源を選択しようとしていることを表す。
図8は、楕円パターン画像及び再生パターン画像を含む表示画像の一例を表す概念図である。
図8に示す表示画像81は、左下部に人物Aの画像83と中央右寄りに人物Bの画像84を表す。
人物Aの真上に配置され、左上から右下に向いた縞模様が付され、中央にスピーカの図案を含む矩形は、再生パターン画像2055である。画像2055を横切る楕円は、楕円パターン画像2056である。画像2056の水平方向の両端の間に、推定された音源(人物A)の方向φに対応する画像2055の水平方向の座標値の中心値XAが含まれる。即ち、図8に表される表示画像は、人物Aの音声が選択され、選択された人物Aの音声が再生されていることを表す。
図9は、曲線パターン画像を含む表示画像の一例を表す概念図である。
図9に示す表示画像91は、左下部に人物Aの画像93と中央右寄りに人物Bの画像94を表す。人物Aの真上に表されている画像は、発話パターン画像2051である。人物Bの頭部に配置され、左上から右下に向いた縞模様が付され、中央にスピーカの図案を含む矩形は、再生パターン画像2057である。画像2057の真上を通る曲線は、曲線パターン画像2058である。画像2058の水平方向の両端の間に、音源定位部203によって推定された音源(人物B)の方向φに対応する画像2057の水平方向の座標値の中心値XBが含まれる。即ち、図9に表される表示画像は、人物Bの音声が選択され、選択された人物Bの音声が再生されていることを表す。これに対し、図9に示される表示画像は、人物Aは発話しているが、その音声を再生する対象として選択されていないことを表す。
図10は、テキストパターン画像を含む表示画像の一例を表す概念図である。
図10に示す表示画像1001は、左下部に人物Aの画像1003と中央右寄りに人物Bの画像1004を表す。人物Aの真上に表されている画像は、テキストパターン画像2059である。画像2059の領域に含まれるテキスト「認識した音声をテキストで表示します」は、音声認識部206が人物Aの音声信号に基づいて生成したテキストである。これにより、利用者は人物Aが発話した内容を把握することができる。
なお、図6−9に示した例と同様に、本実施形態では、利用者が画像2059の表示領域の全部又は一部(例えば、代表点である頂点)の座標を指示する操作入力を受け付けるようにしてもよい。その場合、本実施形態では、音源選択部212は、人物Aが発話した音声信号を選択し、音声出力部213は、選択された音声信号に基づく人物Aの音声を再生する。
音源定位部203は、予め音源方向φ毎に音源から各チャネルi(iは、1≦i≦Nとなる整数)に対応する収音部1011−iまでの伝達関数aφi(ω)が記憶されている記憶部(図示せず)を備える。伝達関数aφi(ω)を要素とするN次元のベクトル[aφ1(ω),aφ2(ω),…,aφN(ω)]を伝達関数ベクトルvaφ(ω)と呼ぶ。
(ステップS201)音源定位部203は、チャネルi毎の音声信号xi(k)(kは、サンプル時刻を表す整数)に対して離散フーリエ変換(DFT;Discrete Fourier Transform)を行って、周波数領域信号xi(ω)(ωは、周波数)を生成する。その後、ステップS202に進む。
音源定位部203は、選択したピーク値にそれぞれ対応する音源方向φを表す音源方向情報を生成する。その後、処理を終了する。
音源分離部204は、予め音源方向φ毎に音源から各チャネルiに対応する収音部1011−iまでの伝達関数aφi(ω)が記憶されている記憶部(図示せず)を備える。但し、音源定位部203がMUSIC法を採用している場合には、音源定位部203又は音源分離部204のうち、いずれか一方が当該記憶部を備え、他方が省略してもよい。その場合、音源定位部203及び音源分離部204は当該記憶部を共用してもよい。
(ステップS301)音源分離部204は、音源定位部203から入力された音源方向情報が表す音源方向に各々対応する伝達関数ベクトルvaφ(ω)を記憶部から読み出す。音源分離部204は、読み出したL個の伝達関数ベクトルvaφ(ω)を統合してN行L列の伝達関数行列Aを構成する。初期分離行列(initial separation matrix)Winitは、例えば、伝達関数行列Aの擬似逆行列である。音源分離部204は、構成した伝達関数行列Aに基づいて初期分離行列Winitを算出する。初期分離行列Winitは、分離行列Wの初期値である。その後、ステップS302に進む。
また、音源分離部204は、行列ESS(ω)と分離誤差行列J’SS(ω)に基づいて、例えば式(9)を用いてステップサイズμSSを算出する。
(ステップS307)音源分離部204は、分離誤差行列J’SS(ω)と幾何誤差行列J’GC(ω)を、それぞれステップサイズμSSとμGCで重み付け加算して分離行列の更新行列ΔWを算出する。音源分離部204は、分離行列Wから更新行列ΔWを減算して、分離行列Wを更新する。その後、ステップS308に進む。
この処理は、ステップS106(図5参照)において、音源方向φが視野角Φの範囲外であると判断された音源が、音声を再生する対象として選択された場合、ステップS112の後で行われる処理である。但し、ステップS111において情報提示装置20の表示情報生成部207は、更新した表示情報を制御情報生成部214に出力する。
(ステップS401)制御情報生成部214は、音源定位部203から音源方向情報が入力される。表示情報生成部207から入力された表示情報から楕円パターン画像情報、曲線パターン画像情報又は指示パターン画像情報と、発話パターン画像情報又は再生パターン画像情報を抽出する。制御情報生成部214は、抽出した表示楕円パターン画像情報、曲線パターン画像情報又は指示パターン画像情報が表す水平方向の座標値、もしくは、その座標値の最大値と最小値を抽出する。
制御情報生成部214は、選択した音源の方向に頭部を向けることを表す制御信号を生成する。制御情報生成部214は、生成した制御信号をロボット10の動作制御部106に出力する。その後、ステップS402に進む。
(ステップS403)動作機構部107を構成する各部品は動作制御部106から供給された電力によって駆動される。その後、処理を終了する。
図14は、表示画像の他の例を表す概念図である。
図14に示す表示画像141は、中心部に人物Dの画像146を表す。
人物Dの頭部と胴体部の間に表されている画像は、再生パターン画像2060である。即ち、表示画像141は、人物Dの方向にロボット10が正面を向き、撮影部1021の光軸が向いていることを表す。また、表示画像141は、発話している人物Dの音声が再生する対象として選択されていることを表す。
この例は、動作制御部106が検出した動作に基づいて画像を補正する処理の一例である。
図15は、本実施形態に係る動作制御処理の他の例を表すフローチャートである。
(ステップS501)位置情報取得部105は、自己が備える位置センサが検知した変位に基づいて位置情報を生成する。位置情報取得部105は、生成した位置情報を動作制御部106に出力する。その後、ステップS502に進む。
(ステップS502)動作制御部106は、位置情報取得部105から入力された位置情報の現在値と予め定めた時間だけ過去の値との変位を算出し、算出した変位が予め定めた閾値よりも大きいか否か判断する。変位が閾値よりも大きいと判断された場合(ステップS502 Y)、ステップS503に進む。変位が閾値と等しいか、又は閾値よりも小さいと判断された場合(ステップS502 N)、処理を終了する。
(ステップS504)画像補正部1022は、動作制御部106から入力された画像補正信号に基づいて撮影部1021から入力された画像信号を補正する。ここで、画像補正部1022は、変換した画像信号に含まれる信号値の座標を、画像補正信号が表す座標補正量だけ移動させて、補正した画像信号を生成する。画像補正部1022は、補正した画像信号を画像符号化部1023に出力する。その後、ステップS505に進む。
(ステップS506)画像符号化部1023は、動作制御部106から入力されたレート補正信号が表すビットレートに、符号化する際のビットレートを変更する。その後、処理を終了する。
次に、図面を参照しながら本発明の第2の実施形態について説明する。
第1の実施形態と同一の構成については、同一の符号を付す。
本実施形態に係る情報伝達システム2は、ロボット40、情報提示装置50及びネットワーク30を含んで構成される。
ロボット40は、情報取得部41、通信部104、位置情報取得部105、動作制御部106及び動作機構部107を含んで構成される。
情報取得部41は、音声情報入力部401、音声符号化部1012、画像情報入力部102、音源定位部203、音源分離部204、音声検出部205、及び音声認識部206を含んで構成される。音声情報入力部401は、収音部1011−1〜1011−Nを含んで構成される。
即ち、ロボット40は、ロボット10(図1参照)が備える構成部と情報提示装置20(図3参照)が備える音源定位部203、音源分離部204、音声検出部205、及び音声認識部206を含んで構成される。
情報提示装置50は、通信部201、音声復号部202、表示情報生成部207、画像復号部208、表示画像合成部209、画像表示部210、操作入力部211、音源選択部212、音声出力部213、及び制御情報生成部214を含んで構成される。
即ち、情報提示装置50は、情報提示装置20(図4参照)が備える音源定位部203、音源分離部204、音声検出部205、及び音声認識部206を省略した構成である。
従って、本実施形態と第1の実施形態では、音源定位部203、音源分離部204、音声検出部205、及び音声認識部206の配置が異なるが、同様な処理が行われ、同様な作用及び効果が得られる。
実験設定において、ロボット10の左前方30°及び右前方30°において、各2名(計4名)の発話者が、雑音環境下でそれぞれ対話を行っている映像と音声を収録した。収録したシーンが2種類準備された。一方のシーンにおける発話区間の一例を図19に示す。
縦軸は、上から下へ順に、発話者A1、A2、B1、B2を表す。横軸は、時刻を表す。
発話者A1、A2は、ロボットの左前方30°で相互に対話を行った発話者である。発話者B1、B2は、ロボットの右前方30°で相互に対話を行った発話者である。図19によれば、発話者A1、A2相互間、ならびに発話者B1、B2相互間、ほぼ交互に発話されている。しかし、発話者A1、A2の対と発話者B1、B2の対を比較すると、発話区間は重複している。
図19は、利用者毎の正答率の一例を表す図である。
図19において、縦軸は正答率を示し、横軸は利用者又は利用者の集合を示す。
横軸は、左から右へ順に、NP1、NP2、NP3、NP4、P1、P2、P3、P4、NP平均、P平均、全体平均、を表す。NPは、情報提示装置20の使用方法を教示されていない利用者を表す。Pは、情報提示装置20の使用方法を教示された利用者を表す。NP平均は、NP1〜NP4間の平均値を表す。P平均は、P1〜P4間の平均値を表す。全員平均は、利用者全員の平均値を表す。但し、
また、横縞が付された棒グラフは、通常の映像再生装置を用いて得られた結果(不使用)を表す。塗りつぶしの棒グラフは、本実施形態に係る情報提示装置20を用いて得られた結果(使用)を表す。
これによれば、NP平均では、正答率は、不使用の場合43%、使用の場合67%である。P平均では、正答率は、不使用の場合27%、使用の場合85%である。全員平均では、不使用の場合35%、使用の場合76%である。
本実施形態では、音源定位部203は、音源毎の垂直方向の方位、又は水平方向の方位と垂直方向の方位を表す音源方向情報を生成してもよい。その場合、表示情報生成部207は、音源方向情報に対応する垂直方向の座標値を考慮してパターン画像情報を含んだ表示情報を生成してもよい。音源選択部212は、音源方向情報に対応する垂直方向の座標を考慮して音源を選択する。
本実施形態では、表示情報生成部207は、表示情報を生成する際、再生パターン画像情報、発話パターン画像情報又はテキストパターン画像情報のいずれかを含めることを省略してもよい。画像表示部210は、再生パターン画像情報、発話パターン画像情報又はテキストパターン画像情報のいずれかを表示することを省略してもよい。
また、上述した実施形態におけるロボット10、40及び情報提示装置20、50の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。ロボット10、40及び情報提示装置20、50の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
101、401…音声情報入力部、1011−1〜1011−N…収音部、
1012…音声符号化部、
102…画像情報入力部、1021…撮影部、1022…画像補正部、
1023…画像符号化部、
104、201…通信部、105…位置情報取得部、106…動作制御部、
107…動作機構部、
20、50…情報提示装置、201…通信部(方向情報入力部、音源別音声信号入力部)、202…音声復号部、203…音源定位部、
204…音源分離部、205…音声検出部、206…音声認識部、
207…表示情報生成部、208…画像復号部、209…表示画像合成部、
210…画像表示部、211…操作入力部、212…音源選択部、
214…制御信号生成部
30…ネットワーク
Claims (1)
- 情報取得装置と情報提示装置とを備える情報伝達システムであって、
前記情報提示装置は、
音声信号を入力する音声信号入力部と、
画像信号を入力する画像信号入力部と、
前記画像信号が表す画像を表示する画像表示部と、
前記音声信号に基づき音源毎の方向情報を推定する音源定位部と、
前記音声信号から前記音源毎の音源別音声信号に分離する音源分離部と、
前記音源毎の音源別音声信号に対して音声区間を検出する音声検出部と、
操作入力を受け付け、前記画像の一部の領域を表す座標指定情報を生成する操作入力部と、
前記音声検出部が音声区間を検出した音源別音声信号の音源の方向情報に対応する座標に、発話状態であることを示す発話パターン画像を前記画像表示部に表示させる表示情報出力部と、
前記座標指定情報が表す領域を表示領域に含む発話パターン画像に係る音源の音源別音声信号を選択する音源選択部と、
前記音源選択部が選択した音源別音声信号を出力する音声出力部と、
前記音源別音声信号に対応する音源の方向情報に係る座標が、前記入力された画像信号が表す画像の表示範囲外であるとき、表示範囲外であることを表す表示情報を生成する表示情報生成部と、
前記音源別音声信号に対応する音源の方向に、前記入力された画像信号が表す画像を撮影する撮影部の方向を変更することを指示する制御情報を生成する制御情報生成部と、
を備え、
前記表示情報出力部は、前記音源選択部が選択した音源の音源別音声信号に係る発話パターン画像を音声再生中であることを示す再生パターン画像に入れ替え、
前記情報取得装置と前記撮影部は、ロボットに備えられ、
前記制御情報に基づいて前記撮影部の方向を制御する動作制御部を備え、
前記撮影部が撮影した画像を示す画像信号を前記画像信号入力部に出力する
ことを特徴とする情報伝達システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011271160A JP5685177B2 (ja) | 2011-12-12 | 2011-12-12 | 情報伝達システム |
US13/707,730 US8990078B2 (en) | 2011-12-12 | 2012-12-07 | Information presentation device associated with sound source separation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011271160A JP5685177B2 (ja) | 2011-12-12 | 2011-12-12 | 情報伝達システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013122695A JP2013122695A (ja) | 2013-06-20 |
JP5685177B2 true JP5685177B2 (ja) | 2015-03-18 |
Family
ID=48572837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011271160A Active JP5685177B2 (ja) | 2011-12-12 | 2011-12-12 | 情報伝達システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8990078B2 (ja) |
JP (1) | JP5685177B2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5702685B2 (ja) * | 2010-08-17 | 2015-04-15 | 本田技研工業株式会社 | 音源方向推定装置及び音源方向推定方法 |
WO2014097748A1 (ja) * | 2012-12-18 | 2014-06-26 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 特定の話者の音声を加工するための方法、並びに、その電子装置システム及び電子装置用プログラム |
JP6311197B2 (ja) * | 2014-02-13 | 2018-04-18 | 本田技研工業株式会社 | 音響処理装置、及び音響処理方法 |
JP6289936B2 (ja) * | 2014-02-26 | 2018-03-07 | 株式会社東芝 | 音源方向推定装置、音源方向推定方法およびプログラム |
CN106463110A (zh) * | 2014-06-03 | 2017-02-22 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
US9875080B2 (en) | 2014-07-17 | 2018-01-23 | Nokia Technologies Oy | Method and apparatus for an interactive user interface |
JP6221158B2 (ja) * | 2014-08-27 | 2017-11-01 | 本田技研工業株式会社 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
JP6464449B2 (ja) * | 2014-08-29 | 2019-02-06 | 本田技研工業株式会社 | 音源分離装置、及び音源分離方法 |
GB2533373B (en) | 2014-12-18 | 2018-07-04 | Canon Kk | Video-based sound source separation |
US9817635B1 (en) | 2015-02-24 | 2017-11-14 | Open Invention Netwotk LLC | Processing multiple audio signals on a device |
KR102358025B1 (ko) | 2015-10-07 | 2022-02-04 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음악 컨텐츠 시각화 방법 |
JP2017086288A (ja) * | 2015-11-06 | 2017-05-25 | 大日本印刷株式会社 | コミュニケーションロボット及びプログラム |
WO2017208820A1 (ja) * | 2016-05-30 | 2017-12-07 | ソニー株式会社 | 映像音響処理装置および方法、並びにプログラム |
US11096004B2 (en) | 2017-01-23 | 2021-08-17 | Nokia Technologies Oy | Spatial audio rendering point extension |
US10531219B2 (en) | 2017-03-20 | 2020-01-07 | Nokia Technologies Oy | Smooth rendering of overlapping audio-object interactions |
US11074036B2 (en) | 2017-05-05 | 2021-07-27 | Nokia Technologies Oy | Metadata-free audio-object interactions |
US10165386B2 (en) | 2017-05-16 | 2018-12-25 | Nokia Technologies Oy | VR audio superzoom |
US11395087B2 (en) | 2017-09-29 | 2022-07-19 | Nokia Technologies Oy | Level-based audio-object interactions |
JP2019072787A (ja) | 2017-10-13 | 2019-05-16 | シャープ株式会社 | 制御装置、ロボット、制御方法、および制御プログラム |
JP6916130B2 (ja) * | 2018-03-02 | 2021-08-11 | 株式会社日立製作所 | 話者推定方法および話者推定装置 |
US10542368B2 (en) | 2018-03-27 | 2020-01-21 | Nokia Technologies Oy | Audio content modification for playback audio |
CN110660102B (zh) * | 2019-06-17 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 基于人工智能的说话人识别方法及装置、系统 |
US20220254361A1 (en) * | 2021-02-11 | 2022-08-11 | Nuance Communications, Inc. | Multi-channel speech compression system and method |
EP4292086A1 (en) | 2021-02-11 | 2023-12-20 | Nuance Communications, Inc. | Multi-channel speech compression system and method |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61146083A (ja) * | 1984-12-20 | 1986-07-03 | Nec Home Electronics Ltd | テレビ会議用端末装置 |
JPH0528719A (ja) * | 1991-07-23 | 1993-02-05 | Yamaha Corp | Cd再生装置の選曲装置 |
JPH0837655A (ja) * | 1994-07-26 | 1996-02-06 | Kyocera Corp | 話者識別表示機能を有するテレビ会議システム |
JP2002046088A (ja) * | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | ロボット装置 |
JP3843740B2 (ja) * | 2001-03-09 | 2006-11-08 | 独立行政法人科学技術振興機構 | ロボット視聴覚システム |
JP2003023612A (ja) * | 2001-07-10 | 2003-01-24 | Mitsubishi Electric Corp | 画像通信端末装置 |
JP4212274B2 (ja) * | 2001-12-20 | 2009-01-21 | シャープ株式会社 | 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム |
JP3627058B2 (ja) * | 2002-03-01 | 2005-03-09 | 独立行政法人科学技術振興機構 | ロボット視聴覚システム |
GB2414369B (en) * | 2004-05-21 | 2007-08-01 | Hewlett Packard Development Co | Processing audio data |
JP4247195B2 (ja) * | 2005-03-23 | 2009-04-02 | 株式会社東芝 | 音響信号処理装置、音響信号処理方法、音響信号処理プログラム、及び音響信号処理プログラムを記録した記録媒体 |
US7953236B2 (en) * | 2005-05-06 | 2011-05-31 | Microsoft Corporation | Audio user interface (UI) for previewing and selecting audio streams using 3D positional audio techniques |
JP4599244B2 (ja) * | 2005-07-13 | 2010-12-15 | キヤノン株式会社 | 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体 |
WO2007071070A1 (en) * | 2005-12-23 | 2007-06-28 | Universite De Sherbrooke | Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer |
WO2007129731A1 (ja) * | 2006-05-10 | 2007-11-15 | Honda Motor Co., Ltd. | 音源追跡システム、方法、およびロボット |
JP2007319938A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | ロボット装置及び物体の三次元形状の取得方法 |
JP2009239348A (ja) * | 2008-03-25 | 2009-10-15 | Yamaha Corp | 撮影装置 |
JP4953095B2 (ja) * | 2008-05-20 | 2012-06-13 | 独立行政法人産業技術総合研究所 | 情報処理装置 |
JP5111343B2 (ja) * | 2008-12-02 | 2013-01-09 | キヤノン株式会社 | 再生装置 |
JP2010162630A (ja) * | 2009-01-14 | 2010-07-29 | Seiko Epson Corp | 撮像方法、ピッキング方法及びピッキング装置 |
-
2011
- 2011-12-12 JP JP2011271160A patent/JP5685177B2/ja active Active
-
2012
- 2012-12-07 US US13/707,730 patent/US8990078B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20130151249A1 (en) | 2013-06-13 |
US8990078B2 (en) | 2015-03-24 |
JP2013122695A (ja) | 2013-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5685177B2 (ja) | 情報伝達システム | |
JP6017854B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム | |
JP6464449B2 (ja) | 音源分離装置、及び音源分離方法 | |
CN102447697B (zh) | 开放环境中的半私人通信的方法及系统 | |
Donley et al. | Easycom: An augmented reality dataset to support algorithms for easy communication in noisy environments | |
US10721521B1 (en) | Determination of spatialized virtual acoustic scenes from legacy audiovisual media | |
JP4439740B2 (ja) | 音声変換装置及び方法 | |
CN112312297B (zh) | 音频带宽减小 | |
JP3485508B2 (ja) | 顔画像伝送方法およびシステムならびに当該システムで用いられる顔画像送信装置および顔画像再生装置 | |
JP6771548B2 (ja) | 盲人又は視覚障害者が音声や触覚によって周囲環境を解釈することを可能にするポータブルシステム | |
US10015443B2 (en) | Adjusting spatial congruency in a video conferencing system | |
CN106664485A (zh) | 基于自适应函数的一致声学场景再现的系统、装置和方法 | |
JP7009997B2 (ja) | 動画生成システムおよび動画表示システム | |
JP7100824B2 (ja) | データ処理装置、データ処理方法及びプログラム | |
CN113228029A (zh) | Ar中的自然语言翻译 | |
JP3670180B2 (ja) | 補聴器 | |
US11496830B2 (en) | Methods and systems for recording mixed audio signal and reproducing directional audio | |
JP2010154259A (ja) | 画像音声処理装置 | |
KR101540113B1 (ko) | 실감 영상을 위한 영상 데이터를 생성하는 방법, 장치 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 | |
KR20230112688A (ko) | 마이크로폰 빔 스티어링이 있는 머리-착용형 컴퓨팅 장치 | |
WO2018088210A1 (ja) | 情報処理装置および方法、並びにプログラム | |
CN110730378A (zh) | 一种信息处理方法及系统 | |
WO2019026598A1 (ja) | 画像処理装置、画像処理方法、プログラム、および遠隔コミュニケーションシステム | |
JP2005123959A (ja) | 高臨場感通信会議装置 | |
CN116095548A (zh) | 一种交互耳机及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5685177 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |