JP3359948B2 - Document presentation device and method - Google Patents

Document presentation device and method

Info

Publication number
JP3359948B2
JP3359948B2 JP07472393A JP7472393A JP3359948B2 JP 3359948 B2 JP3359948 B2 JP 3359948B2 JP 07472393 A JP07472393 A JP 07472393A JP 7472393 A JP7472393 A JP 7472393A JP 3359948 B2 JP3359948 B2 JP 3359948B2
Authority
JP
Japan
Prior art keywords
page
data
user
display
turning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07472393A
Other languages
Japanese (ja)
Other versions
JPH06318235A (en
Inventor
美佳 福井
三恵子 浅野
明 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP07472393A priority Critical patent/JP3359948B2/en
Publication of JPH06318235A publication Critical patent/JPH06318235A/en
Application granted granted Critical
Publication of JP3359948B2 publication Critical patent/JP3359948B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、資料の頁めくりを自動
的に行う資料呈示装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document presenting apparatus and method for automatically turning a document.

【0002】[0002]

【従来の技術】近年、楽器の自動演奏や、譜面読みと
り、音楽データベース化、作曲、編曲など、音楽のいろ
いろな局面にコンピュータが利用されている。特に電子
楽器はMIDI(Musical Instrument Digital Interfa
ce)規格で統一されており、演奏情報のやりとりは一般
的になっている。MIDI楽器を対象とする演奏支援は
複数商品化されており、演奏に追随して楽譜を呈示した
り、伴奏をつけるシステムなどがある。また電子キーボ
ードなどでは、次に弾くべきキーの位置をLEDで示す
教示用の機能を持つものも多い。
2. Description of the Related Art In recent years, computers have been used for various aspects of music, such as automatic performance of musical instruments, reading of musical scores, creation of a music database, composition and arrangement. Especially for electronic musical instruments, MIDI (Musical Instrument Digital Interfa
ce) It is standardized and the exchange of performance information is common. A plurality of performance supports for MIDI musical instruments have been commercialized, and there are systems for presenting musical scores and accompanying accompaniments following performances. Many electronic keyboards have a teaching function of indicating the position of a key to be played next with an LED.

【0003】しかし、MIDIが適用されないアコース
ティックな楽器は依然として存在している。そして、こ
のような電子化されていない楽器の練習支援、あるいは
デモ演奏用として、ピアノの自動演奏システムのように
演奏情報を記憶して再生するものは知られているが、演
奏にあわせて楽譜を呈示するシステムはない。
[0003] However, acoustic instruments to which MIDI is not applied still exist. There is known a system for storing and reproducing performance information, such as an automatic piano performance system, for practicing such non-electronic musical instruments or for demonstration performance. There is no system for presenting.

【0004】従って、演奏者は、従来通り、紙の楽譜を
見るか暗譜をするかしかなく、楽譜の譜めくりをしよう
とすると、切れ目のない曲の場合演奏の中断を余儀なく
され、また、折れ、破れなどの楽譜の破損や、めくりそ
こない、楽譜の転落などもおこしやすい。また、演奏す
る場所や演奏者の視力によっては楽譜がみえにくいこと
もあり、演奏者の心理的・物理的な負担となっている。
また、ピアノで他の楽器に伴奏をつける時に限って、演
奏者以外の人間が横に座って譜めくりを行う慣例がある
が、これも演奏への集中を乱される点が多く、演奏者の
心理的負担が大きい。
[0004] Therefore, as in the past, the player has no choice but to look at the score of the paper or to perform the memorization. When turning the score, if the music is continuous, the performance must be interrupted and broken. It is easy for the score to be damaged, torn, to be turned over, or for the score to fall. Also, depending on the place where the performance is performed and the eyesight of the performer, the score may be difficult to see, which is a psychological and physical burden on the performer.
In addition, there is a practice in which a person other than the performer turns a page and turns the page only when accompaniment is performed with another instrument on the piano. The psychological burden of is large.

【0005】ところで、最近になって、録音された演奏
データから演奏情報を抽出し、印刷された楽譜の認識結
果と対応づけする技術が開発されている。このような技
術で比較的容易な方法として、演奏データからピッチを
抽出し、楽譜と対応させることは可能ではある。
Recently, a technique has been developed which extracts performance information from recorded performance data and associates the information with a recognition result of a printed musical score. As a relatively easy method using such a technique, it is possible to extract a pitch from performance data and associate it with a musical score.

【0006】しかし、これらの技術では、いまだ精度が
十分でなく、実際の演奏や練習中によくある、誤りや省
略・アドリブ、曲の途中から演奏を開始する場合や、任
意の位置での繰り返し等には対応できない。例えば、ま
ったく同じフレーズが何度も出てくる曲の場合、演奏デ
ータだけでは楽譜の位置を特定することは不可能であ
る。これらの問題点を解決しようとすると大きくて高価
な商品となり、紙の楽譜の代用品にはならない。
[0006] However, these techniques are still insufficient in accuracy, and often occur during actual performance or practice, such as errors, omissions, ad-libs, when starting a performance from the middle of a song, or repetition at an arbitrary position. And so on. For example, in the case of a song in which exactly the same phrase appears many times, it is impossible to specify the position of the score only by the performance data. Attempts to solve these problems would be large and expensive, and would not replace paper music.

【0007】一方、一般の資料呈示装置に目をむける
と、キーボード・マウス・ペンやタッチパネル・リモコ
ン・フットペダル・音声認識など、さまざまな形態のイ
ンターフェースを用いて頁めくりの指示が与えるものが
考えられている。
On the other hand, when turning to a general material presenting apparatus, it is considered that a page turning instruction is given using various types of interfaces, such as a keyboard, a mouse, a pen, a touch panel, a remote controller, a foot pedal, and voice recognition. Have been.

【0008】しかし、時間遅れが許されない緊迫した状
況で、両手が使えず声を出して指示することもできず、
フットペダルも使いづらいような状況下では、上述のイ
ンターフェースでは十分でない。
However, in a nervous situation where time delay is not permissible, both hands cannot be used and it is not possible to give a command aloud,
In situations where the foot pedal is also difficult to use, the above interface is not sufficient.

【0009】例えば、放送用や劇場用・音楽スタジオ等
で、照明、舞台装置、音響効果、あるいは音声のミキシ
ングやカメラの切り替え等を指示する場合のように、声
は他の部屋との連絡を行うために使っており、両手は操
作盤、足元は暗くてフットペダルを操作しにくく、台本
の頁めくりを行う余裕がない場合が考えられ、また、テ
レビのアナウンサーが、カメラに向かいながら台本や手
元資料を頁めくりするような場合も考えられるが、いず
れの場合も従来の頁めくりの指示方法では不十分であ
る。
For example, in the case of broadcasting, theater, music studios, etc., voices communicate with other rooms, such as instructing lighting, stage equipment, sound effects, sound mixing, camera switching, and the like. It is thought that there are cases where it is difficult to operate the foot pedal because both hands are dark and the feet are dark and there is no room to turn the script page, and the TV announcer is facing the camera and the script It is possible to turn the document at hand, but in any case, the conventional page turning instruction method is insufficient.

【0010】同様にして、最近、客先や会議などでプレ
ゼンテーションの機会が増えているが、OHPやビデオ
の操作は、緊張している発表者(プレゼンタ)にとって
は大きな負担になっている。もちろん、聴衆にとっても
見苦しく、話の中断によって発表への興味を阻害され
る。スライドのようにプレゼンタとは別に操作者がいる
場合は、プレゼンタの音声を用いて操作者への指示を行
っているが、やはり聴衆にとっては聞き苦しい。多くの
場合、会場でリハーサルをする時間的余裕がないため、
プレゼンタの望むタイミングが操作者に伝わらず、スラ
イドの入れ替え時にミスが起こりやすい。
Similarly, recently, the number of presentations at customer sites and conferences has been increasing, but the operation of OHP and video has become a heavy burden for nervous presenters (presenters). Of course, it is unsightly for the audience, and the break in the conversation hinders interest in the presentation. When there is an operator other than the presenter such as a slide, an instruction is given to the operator using the voice of the presenter, but it is still hard for the audience to hear. Often, there is no time to rehearse at the venue,
The timing desired by the presenter is not transmitted to the operator, and mistakes are likely to occur when switching slides.

【0011】最近では、プレゼンタの手元にパーソナル
コンピュータ等の計算機とモニタを用意し、モニタと同
じ表示画面をスクリーンに投影して、呈示資料の頁めく
りや、ビデオの再生・中断・巻き戻し・早送りなどの指
示を、マウス等を用いて行うプレゼンテーション装置も
ある。計算機になれているプレゼンタにとっては、OH
Pの取り替えやビデオのリモコン操作よりは負担が少な
い。しかし、一般のプレゼンタにとっては、負担が増す
ことになりかねない。計算機を用いる場合は、手元のモ
ニタかスクリーンに対して正面に位置しないと、正確な
操作が行えない。マウスなどの操作具も場所を取り、自
由に持ち歩けない。このためプレゼンタは計算機の前に
座ったままプレゼンテーションを行わなくてはならず、
行動半径が極端にせまくなってしまう。プレゼンタ自身
の表現能力をいかすためには、発表中もある程度自由に
動き回れなくてはならない。
Recently, a computer such as a personal computer and a monitor are prepared near the presenter, and the same display screen as the monitor is projected on the screen to turn pages of the presentation material, and to play, interrupt, rewind, and fast-forward the video. There is also a presentation device for giving instructions such as using a mouse or the like. For a presenter who is a computer, OH
It is less burdensome than replacing P or operating the video remote control. However, the burden on general presenters may increase. In the case of using a computer, an accurate operation cannot be performed unless the computer is located in front of a monitor or a screen at hand. Operation tools such as a mouse take up space and cannot be carried around freely. For this reason, the presenter must give a presentation while sitting in front of the computer,
The radius of action becomes extremely small. In order to make use of the presenter's own expressiveness, he must be able to move around freely during the presentation.

【0012】また、このようにプレゼンタと聴衆の間に
明示的に計算機が割り込むと、聴衆との親密な関係が築
きにくいという問題が生じる。プレゼンタは計算機の操
作に没頭するあまり、聴衆の状態に無関心になり、聴衆
は計算機の呈示画面に集中するあまり、プレゼンタ自身
の言葉への興味をなくす状況がみられる。双方向通信機
能を活かした会議などの場合はともかく、プレゼンタと
聴衆が実際にその場に居合わせている際は、直接的なコ
ミュニケーションが第一の目的のはずである。計算機の
存在がプレゼンタ以上には目立ってはならない。そのた
めには、プレゼンタも聴衆も頁めくりの指示を意識しな
いようなインタフェースが不可欠である。現在のとこ
ろ、このような問題を解決するようなプレゼンテーショ
ン装置は存在していない。
Further, if the computer explicitly interrupts between the presenter and the audience, a problem arises that it is difficult to establish a close relationship with the audience. The presenter is so immersed in the operation of the computer that he or she is indifferent to the state of the audience, and the audience is so concentrated on the presentation screen of the computer that the interest in the presenter's own words is lost. Aside from a two-way communication function, a direct communication should be the primary purpose when the presenter and the audience are actually present. The presence of the computer must not be more prominent than the presenter. For that purpose, an interface that makes both the presenter and the audience unaware of page turning instructions is indispensable. At present, there is no presentation device that solves such a problem.

【0013】人間の頭の位置・向きなどから算出した視
点位置を、コンピュータの入力情報として活用する試み
が、臨場感会議や仮想現実感(バーチャルリアリィテ
ィ)、遠隔地監視などの分野で行われている。実際の視
点位置とディスプレイに表示された空間上の視点位置を
対応させることにより、首振りなどの自然な動作で表示
内容を変化させることができる。ただし、これらは精度
が低く装置も大がかりなため、頁めくり指示には不適当
である。精度の高いものとしては、眼球運動などから直
接視点位置を算出する方法がある。ディスプレイに表示
された物体や、特定の操作を意味するアイコンを指示す
るために、ユーザは一定時間その物体を凝視させるシス
テムがある。ただし、人間の視点制御は無意識のうちに
行われることが多く、特に両手が使えないような極限状
態においては、集中してディスプレイの一点を凝視する
ことは不可能なので、これだけでは有効な頁めくり指示
インタフェースとはなり得ない。
[0013] Attempts to utilize the viewpoint position calculated from the position and orientation of the human head as input information of a computer have been made in fields such as real-world meetings, virtual reality, and remote monitoring. ing. By associating the actual viewpoint position with the viewpoint position in the space displayed on the display, the display content can be changed by a natural operation such as swinging. However, these are inadequate for page turning instructions because of their low accuracy and large equipment. As a highly accurate method, there is a method of directly calculating a viewpoint position from eye movement or the like. In order to indicate an object displayed on a display or an icon indicating a specific operation, there is a system in which a user stares at the object for a certain period of time. However, human viewpoint control is often performed unconsciously, especially in extreme situations where both hands cannot be used. It cannot be an instruction interface.

【0014】[0014]

【発明が解決しようとする課題】このように、資料呈示
装置は、楽器演奏の際の楽譜の譜めくり、放送用や劇場
用・音楽スタジオ等での演出の際の台本の頁めくり、客
先や会議などでのプレゼンテーションの際のスクリーン
に投影した呈示資料の頁めくりなど、さまざまな用途へ
の利用が考えられているが、これら利用に応じて適切に
頁めくりをしながら資料呈示するものはなく、利用者に
とって十分に満足いくものが存在していないのが現状で
あった。
As described above, the material presenting device is used to turn over a musical score when playing a musical instrument, turn over a script when producing a performance in a broadcast, theater, music studio, or the like. For various uses, such as turning pages of presentation materials projected on the screen at the time of presentations at meetings and conferences, etc., it is considered that there are materials that turn pages properly according to these uses. At present, there is no one that is sufficiently satisfactory for users.

【0015】本発明は、上記事情に鑑みてなされたもの
で、適切に頁めくりをしながら資料の呈示を行うことが
できる、資料呈示装置及び方法を提供することを目的と
する。
The present invention has been made in view of the above circumstances, and has as its object to provide a material presenting apparatus and method capable of presenting materials while properly turning pages.

【0016】[0016]

【課題を解決するための手段】本発明に係る資料呈示装
置は、頁内容データと、この頁内容データの呈示順序と
呈示位置である頁制御データを記憶するための記憶手段
と、この記憶手段に記憶された頁内容データを表示する
ための表示手段と、ユーザによる前記表示手段への注視
位置および時間を検出するための注視点検出手段と、前
記ユーザの行動を検出するためのユーザ行動検出手段
と、このユーザ行動検出手段より検出されたユーザの行
動と、前記注視点検出手段によって検出されたユーザの
注視位置および時間に基づいて、頁内容データの頁めく
りを指示するための頁めくり判定手段と、この頁めくり
判定手段による頁めくりの指示をもとに、前記記憶手段
に記憶された頁制御データに従い前記表示手段に対する
各頁内容データを表示させるための頁データ呈示手段と
を具備したことを特徴とする。
According to the present invention, there is provided a material presenting apparatus for storing page content data, page control data which is the order and location of the page content data, and the storage means. Display means for displaying the page content data stored in the storage device, gazing point detecting means for detecting a position and time at which the user gazes at the display means, and user action detection for detecting the action of the user Means, a user action detected by the user action detecting means, and a page turning determination for instructing page turning of page content data based on the user's gaze position and time detected by the fixation point detecting means. Means and means for displaying each page content data for the display means in accordance with page control data stored in the storage means, based on a page turning instruction by the page turning determination means. Characterized by comprising a page data presentation means for.

【0017】本発明は、頁内容データを、この頁内容デ
ータの呈示順序と呈示位置である頁制御データをもと
に、表示手段に呈示するための資料呈示方法において、
ユーザによる前記表示手段への注視位置および時間を検
出し、前記ユーザの行動を検出し、検出されたユーザの
行動と、検出されたユーザの注視位置および時間に基づ
いて、頁内容データの頁めくりの指示を生成し、この頁
めくりの指示をもとに、前記頁制御データに従い前記表
示手段に対する各頁内容データを表示させることを特徴
とする。
According to the present invention, there is provided a material presentation method for presenting page content data to display means based on page control data which is a presentation order and a presentation position of the page content data.
A gaze position and time of the display means by the user are detected, and the behavior of the user is detected. Based on the detected behavior of the user and the detected gaze position and time of the user, the page turning data of the page content data is detected. Is generated, and based on the page turning instruction, each page content data is displayed on the display means in accordance with the page control data.

【0018】[0018]

【0019】[0019]

【作用】この結果、本発明によれば、ユーザの注視点と
行動の履歴から、自動的に頁めくりを行うタイミングを
決定することができるので、楽器の演奏時など両手が使
えない状態でも、適切なタイミングで頁を切り替えるこ
とにより、ユーザの頁めくり操作に伴う物理的・心理的
負担を軽減できる。
As a result, according to the present invention, the timing of turning pages can be automatically determined from the user's point of regard and the history of actions, so that even when both hands cannot be used, such as when playing a musical instrument, By switching pages at appropriate timing, the physical and psychological burden associated with the user's page turning operation can be reduced.

【0020】[0020]

【0021】[0021]

【実施例】以下、本発明の一実施例を図面に従い説明す
る。図1は、同実施例の概略構成を示すもので、ここで
は楽器演奏の際の楽譜の譜めくりを可能にした電子楽譜
に適用した例を示している。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of the embodiment. Here, an example is shown in which the present invention is applied to an electronic musical score which enables a musical score to be turned when playing a musical instrument.

【0022】図において、11はデータ入力部で、この
データ入力部11は、FDドライブなどからななってい
て、頁内容の実データ(頁ごとの楽譜データ)、曲名や
各頁の順序関係などのデータ(頁制御データ)などを、
例えば3.5インチフロッピーディスク(FD)から読
み取るようにしている。そして、この入力部11で読み
取られたデータは、ハードディスクなどからなる記憶部
12に送られる。記憶部12は、頁内容データ記憶部1
21、頁制御データ記憶部122、履歴記憶部123か
らなっている。
In the figure, reference numeral 11 denotes a data input unit, which is constituted by an FD drive or the like, and stores actual data of page contents (score data for each page), song titles, and the order relation of each page. Data (page control data), etc.
For example, the data is read from a 3.5-inch floppy disk (FD). The data read by the input unit 11 is sent to a storage unit 12 such as a hard disk. The storage unit 12 stores the page content data storage unit 1
21, a page control data storage unit 122, and a history storage unit 123.

【0023】ここで、頁内容データ記憶部121は、入
力部11から与えられる頁内容の実データ(頁ごとの楽
譜データ)を記憶し、頁制御データ記憶部122は、入
力部11から与えられる曲名や各頁の順序関係などのデ
ータ(頁制御データ)を記憶するようにしている。ま
た、履歴記憶部123は、ユーザ行動抽出部17、注視
点検出部18、頁めくり指示検出部15および頁データ
呈示部13からの出力が与えられ、ユーザの行動および
注視点、頁めくり指示などからユーザの頁めくり指示情
報と演奏中かどうかの情報とを関係づけて、頁操作に関
する履歴を保存するようにしている。
Here, the page content data storage section 121 stores the actual data of the page content (score data for each page) provided from the input section 11, and the page control data storage section 122 is provided from the input section 11. Data (page control data) such as a song title and the order relation of each page is stored. The history storage unit 123 receives outputs from the user action extraction unit 17, the point of interest detection unit 18, the page turning instruction detection unit 15, and the page data presentation unit 13, and outputs the user's action and point of interest, page turning instruction, and the like. , The page turning instruction information of the user and the information indicating whether or not the user is performing music are associated with each other, and a history of page operations is stored.

【0024】そして、記憶部12の頁内容データ記憶部
121および頁制御データ記憶部122からの出力は、
頁データ呈示部13に送られ、頁制御データ記憶部12
2および履歴記憶部123からの出力は、頁めくり判定
部16に送られる。
Outputs from the page content data storage unit 121 and the page control data storage unit 122 of the storage unit 12 are as follows:
The page control data storage unit 12
2 and the output from the history storage unit 123 are sent to the page turning determination unit 16.

【0025】頁めくり判定部16は、頁めくり指示検出
部15を通して与えられるユーザの頁めくり指示情報
や、記憶部12の頁制御データ記憶部122の頁制御デ
ータと履歴記憶部123からの履歴情報をもとに、次に
どのタイミングでどの頁をどの位置に呈示するかなどを
決定するようにしている。
The page turning determining section 16 is provided with user page turning instruction information given through the page turning instruction detecting section 15, page control data of the page control data storage section 122 of the storage section 12, and history information from the history storage section 123. Then, it is determined which page is to be presented at which timing at which timing.

【0026】頁データ呈示部13は、頁制御データ記憶
部122の頁制御データ、頁めくり判定部16から送ら
れる頁めくり情報をもとに、次に表示する頁内容データ
記憶部121の頁内容データを表示部14へ送るように
している。表示部14では、頁めくり判定部16から送
られた頁内容データを指定された位置に表示する。
The page data presenting section 13 is based on the page control data of the page control data storage section 122 and the page turning information sent from the page turning determining section 16, and displays the page contents of the page content data storage section 121 to be displayed next. The data is sent to the display unit 14. The display unit 14 displays the page content data sent from the page turning determination unit 16 at a designated position.

【0027】なお、ユーザ行動抽出部17は、ユーザの
現在の行動から楽器を演奏中かを検出するものである。
また、注視点検出部18は、現在ユーザが注視している
ディスプレイ上の位置を検出し、注視し始めた時間と継
続時間などの情報を検出するようにしている。図2は、
このように構成した電子楽譜の外観を示すものである。
The user action extraction unit 17 detects whether the user is playing a musical instrument based on the current action of the user.
The gaze point detection unit 18 detects a position on the display where the user is currently gazing, and detects information such as a time at which the user started gazing and a duration time. FIG.
This shows the appearance of an electronic musical score configured as described above.

【0028】この場合、20は電子楽譜本体で、この電
子楽譜本体20は、A4×2枚サイズの折り畳み構造に
なっていて、表示部14として2頁分同時表示可能な薄
型ディスプレイ21を有している。この場合、電子楽譜
本体20の外観は、図2の形状にはこだわらず、複数頁
同時表示できる大きさで譜面台に乗る重さであればよ
い。
In this case, reference numeral 20 denotes an electronic musical score main body. The electronic musical score main body 20 has a folding structure of A4 × 2 sheets and has a thin display 21 capable of simultaneously displaying two pages as the display section 14. ing. In this case, the external appearance of the electronic musical score main body 20 is not limited to the shape shown in FIG.

【0029】電子楽譜本体20の各ディスプレイ21の
上部に、注視点検出部18の小型カメラ24を設けてい
る。この場合、図示のように左右の頁に分かれて設けら
れる場合は、左右に微弱なレーザー光の発射装置と小型
カメラを用意し、どちらの頁を注視しているか検出する
ようにできる。そして、どちらの頁を、何時から何秒間
注視していたかの情報は、上述した履歴記憶部123に
送られる。
At the top of each display 21 of the electronic musical score main body 20, a small camera 24 of the gazing point detecting unit 18 is provided. In this case, as shown in the figure, if the apparatus is provided separately on the left and right pages, a device for emitting a weak laser beam on the left and right and a small camera can be prepared to detect which page is being watched. Then, information on which page has been watched and for how long is sent to the history storage unit 123 described above.

【0030】また、電子楽譜本体20の一方のディスプ
レイ21の上部に、ユーザ行動検出部17の内蔵マイク
23を設けている。この場合、内蔵マイク23は、周囲
の音響データを収集するもので、対象とする楽器の演奏
データが含まれているかによって、演奏中かどうかな
ど、ユーザの現在の状態を判断するものである。そし
て、ユーザの現在の状態情報は、、上述した履歴記憶部
123に送られる。
A built-in microphone 23 of the user action detection unit 17 is provided above one display 21 of the electronic musical score main body 20. In this case, the built-in microphone 23 collects surrounding acoustic data, and determines the current state of the user, such as whether or not the user is performing, depending on whether or not performance data of the target musical instrument is included. Then, the current state information of the user is sent to the history storage unit 123 described above.

【0031】また、電子楽譜本体20の各ディスプレイ
21の下部に、頁めくりキー22を設けている。この頁
めくりキー22は、手を使える場合に手によるめくり操
作を可能にするものである。
A page turning key 22 is provided below each display 21 of the electronic musical score main body 20. The page turning key 22 enables a manual turning operation when a hand can be used.

【0032】しかして、図1のデータ入力部11に入力
されるデータは、例えば、図3(a)に示す各楽譜の曲
名・作曲者名などの文字情報31、同図(b)に示す楽
譜本体のコードデータ(あるいはイメージデータ)32
および同図(c)に示す各曲の頁データの呈示順序を示
す楽譜構造データ33からなっていて、これらは3.5
インチフロッピーなどに保存され、ユーザは曲名を選択
するなどにより、所望の曲の楽譜が頁内容記憶部121
および頁制御データ記憶部122に読み出される。
The data input to the data input unit 11 of FIG. 1 is, for example, character information 31 such as the title of a musical score and the name of a composer of each musical score shown in FIG. Chord data (or image data) of the score body 32
And music score structure data 33 indicating the presentation order of the page data of each song shown in FIG.
The music score of the desired music is stored in an inch floppy or the like, and the user selects the music title, etc.
And into the page control data storage unit 122.

【0033】頁データ呈示部13では、記憶部12に新
規の楽譜データが読み込まれると、頁制御データ記憶部
122から呈示順序データにより、頁内容記憶部121
に記憶された楽譜本体の先頭から2頁までの楽譜が読み
出され、表示部14に、初期状態として図4(a)に示
すよう左頁に1頁目、右頁に2頁目の楽譜が表示される
ようになる。そして、これらの表示状況は履歴記憶部1
23へ送られ記憶される。
When the new musical score data is read into the storage section 12, the page data presentation section 13 uses the presentation order data from the page control data storage section 122 to store the page content storage section 121.
Is read out from the top of the score main body stored in the first page, and the first page is displayed on the left side and the second page is displayed on the right side as an initial state as shown in FIG. Will be displayed. These display states are stored in the history storage unit 1.
23 and stored.

【0034】ここで、次頁を見たいとき、手を使える場
合は手で頁めくり操作を行うことが可能であり、この場
合は、図2に示す頁めくりキー22を操作する。する
と、頁めくり指示検出部15より頁めくり判定部16に
頁めくり情報が与えられ、この情報に基づいて、次に表
示する頁内容データ記憶部121の頁内容データが表示
部14に表示される。
Here, when the user wants to view the next page, if the user can use the hand, the user can perform the page turning operation by hand. In this case, the page turning key 22 shown in FIG. 2 is operated. Then, page turning information is given from the page turning instruction detecting unit 15 to the page turning determining unit 16, and based on this information, the page content data of the page content data storage unit 121 to be displayed next is displayed on the display unit 14. .

【0035】図5(a)(b)(c)(d)は、頁めく
りキー22に付される表示の具体例を示すもので、同図
(a)は、頁のめくり方向に応じた矢印51、同図
(b)は、頁をめくる様子を表すアイコン52、同図
(c)は、キーの形そのものが折れた頁下部の様子の模
擬表示53がそれぞれ付され、同図(d)は、右頁下と
左頁下にキー表示54が一組づつ配置され、左右どちら
の手でも頁めくりをし易くしている。
FIGS. 5 (a), 5 (b), 5 (c) and 5 (d) show specific examples of the display provided on the page turning key 22, and FIG. 5 (a) shows the display according to the page turning direction. The arrow 51, FIG. 4B shows an icon 52 showing the state of turning the page, and FIG. 4C shows a simulated display 53 showing the state of the lower part of the page where the key itself is broken. In the parentheses (), a key display 54 is arranged one set at the bottom of the right page and at the bottom of the left page, so that the page can be easily turned by either the left or right hand.

【0036】そして、これらのキー22を押すと、紙の
頁めくりと同じように見開き2頁同時にめくることがで
きる。つまり、右側のキーで次頁と次々頁が、左側のキ
ーで前々頁と前頁が、それぞれ左右の頁に表示されるよ
うになる。
When these keys 22 are depressed, two pages can be turned at the same time as in the case of turning over pages of paper. That is, the next key and the next page are displayed on the right and left keys, respectively, and the next and previous pages are displayed on the left and right pages, respectively.

【0037】ここで、図22に示す右側の頁めくりキー
22を押したあとの表示部14の状態を図4(c)に示
す。左頁に3頁目が、右頁に4頁目が表示されている。
この場合、左の頁のみ先に書き換え(図4(b))、少
し時間をおいて右頁を書き換える(図4(c))ように
してもよい。この間の時間設定が変えられるようにする
ことも可能である。
FIG. 4C shows the state of the display unit 14 after the right page turning key 22 shown in FIG. 22 is pressed. The third page is displayed on the left page, and the fourth page is displayed on the right page.
In this case, only the left page may be rewritten first (FIG. 4B), and after a short time, the right page may be rewritten (FIG. 4C). It is also possible to change the time setting during this time.

【0038】また、片方の頁のみをめくるようにするこ
とも可能であり、この場合、片方の頁のみめくるための
キーを別に用意してもよい。この場合、左頁のみめくる
と図4(b)のような状態になり、その後、右頁のみ頁
めくりの指示を与えると、図4(c)の状態になる。そ
して、これらの手作業における頁めくり操作と、それに
よって現在どの頁が表示されているかの情報は、履歴記
憶部123へ送られ記憶される。ユーザが、楽器の演奏
中は、主に自動頁めくりが行われる。この場合の自動頁
めくりを実現する頁めくり判定部16の動作を図6に従
い説明する。
It is also possible to turn only one page. In this case, a key for turning only one page may be separately prepared. In this case, when the left page is turned, a state as shown in FIG. 4B is obtained, and when an instruction to turn the page only on the right page is given, the state shown in FIG. 4C is obtained. Then, the page turning operation in these manual operations and information on which page is currently being displayed by that operation are sent to the history storage unit 123 and stored. While the user is playing the instrument, automatic page turning is mainly performed. The operation of the page turning determining unit 16 for realizing automatic page turning in this case will be described with reference to FIG.

【0039】いま、楽譜は全4頁からなっているものと
し、表示部14には、初期状態として図4(a)に示す
よう左頁に1頁目、右頁に2頁目の楽譜が表示されてい
るものとする。
Now, it is assumed that the score is composed of a total of four pages, and the display section 14 initially displays the score of the first page on the left page and the second page on the right page as shown in FIG. It shall be displayed.

【0040】まず、頁めくり判定部16では、履歴記憶
部123から現在表示中の頁の後の頁を見て、この頁と
頁制御データ記憶部122のデータと比較し、次に呈示
すべき頁がまだ残っているかを判定する(ステップ6
1)。この場合、表示される最新の頁は2頁目であるか
ら、呈示すべき頁はあと2頁残っている。
First, the page turning judgment unit 16 looks at the page after the page currently displayed from the history storage unit 123, compares this page with the data in the page control data storage unit 122, and presents it next. Determine whether pages remain (step 6)
1). In this case, since the latest page to be displayed is the second page, two pages to be presented remain.

【0041】次に、ユーザ行動検出部17によりユーザ
の現在の状態を判断する(ステップ62)。この場合、
図2に示すような内臓マイク23で収集した音響データ
を解析し、対象とする楽器の演奏データが含まれている
かによって、ユーザが演奏中かどうかを判定する。そし
て、演奏中か否かの検出結果は、履歴記憶部123に記
憶され、演奏中でなければ演奏がはじまるまで、ステッ
プ62の状態が保持される。
Next, the current state of the user is determined by the user action detector 17 (step 62). in this case,
The acoustic data collected by the built-in microphone 23 as shown in FIG. 2 is analyzed, and it is determined whether or not the user is performing based on whether or not the performance data of the target musical instrument is included. Then, the result of detection as to whether or not the performance is being performed is stored in the history storage unit 123. If the performance is not being performed, the state of step 62 is held until the performance starts.

【0042】ユーザが演奏中の場合は、現在まで演奏が
継続していた時間(継続演奏時間)を履歴記憶部123
のデータから算出する。そして、継続演奏時間がある基
準時間のA秒を越えいれば、次ステップ64に進み、越
えていなければステップ62へ戻る(ステップ63)。
When the user is performing, the time during which the performance has been continued (continuous performance time) is stored in the history storage unit 123.
Calculated from the data of If the continuous performance time exceeds the reference time A seconds, the process proceeds to the next step 64, and if not, the process returns to the step 62 (step 63).

【0043】この状態で、注視点検出部18により注視
頁を検出する。この場合、図2に示す小型カメラ24に
より、どちらの頁を何時から何秒間注視していたかを検
出し、この検出情報は、逐次、履歴記憶部123へ送ら
れ記憶される。
In this state, the gazing page is detected by the gazing point detector 18. In this case, the small camera 24 shown in FIG. 2 detects which page has been watched for what time and for how many seconds, and this detection information is sequentially sent to the history storage unit 123 and stored.

【0044】ここでの注視状態とは、あるていどの時間
視点がどちらかの頁に留まっていることと規定し、あま
り短い時間は注視したと判定しないようにする。つま
り、ちらっと確認するために見たような場合は省かれ
る。
Here, the gaze state is defined as that which time point of view remains on one of the pages, and it is not determined that the user gazes for a very short time. In other words, cases that are seen for a quick check are omitted.

【0045】これにより、演奏が始まり継続演奏時間が
A秒を越えたなら、現在までの注視点履歴情報を用い
て、表示中の前の方の頁(この場合は1頁目)を最後に
注視してからどれくらいの時間が経過しているか(非注
視時間)を算出する。そして、非注視時間が基準時間B
秒を越えていれば、次ステップ65に進み、越えていな
ければ、ステップ62へ戻る(ステップ64)。
Thus, if the performance starts and the continuous performance time exceeds A seconds, the previous page (the first page in this case) being displayed is finally changed using the point-of-interest history information up to the present. Calculate how much time has passed since the gaze (non-gaze time). And the non-gaze time is the reference time B
If it exceeds the second, the process proceeds to the next step 65, and if not, the process returns to the step 62 (step 64).

【0046】前の頁への非注視時間がB秒を越えている
場合は、表示されている最新頁(この場合は2頁目)へ
の注視時間の合計を、履歴記憶部123の注視点履歴情
報を用いて算出し、この合計時間と基準時間C秒を比較
する(ステップ65)。
If the non-gaze time for the previous page exceeds B seconds, the total gaze time for the latest displayed page (in this case, the second page) is stored in the gaze point of the history storage unit 123. Calculation is performed using the history information, and the total time is compared with the reference time C seconds (step 65).

【0047】ここで、合計時間がC秒を越えていれば、
前の頁の表示位置に対して、次に表示すべき頁データを
表示するよう頁データ呈示部13へ指示を送る(ステッ
プ66)。一方、越えていない場合は、最新頁への非注
視時間を算出して基準時間D秒と比較し(ステップ6
7)、ここで基準時間Dを越えていたら前の頁を書き換
える指示を出力し、越えていない場合はステップ62へ
戻るようになる。
Here, if the total time exceeds C seconds,
An instruction is sent to the page data presenting unit 13 to display the page data to be displayed next for the display position of the previous page (step 66). On the other hand, if it does not exceed, the non-gazing time to the latest page is calculated and compared with the reference time D seconds (step 6).
7) If the time exceeds the reference time D, an instruction to rewrite the previous page is output. If not, the process returns to step 62.

【0048】頁データ呈示部13では、頁めくり判定部
16から前頁を書き換える指示が与えられると、この指
示に従い、1頁目のデータが表示されていた左頁を3頁
目のデータに書き換える(図4の(b))。また、演奏
がつづき、注視点が3頁目に移動して、2頁目に対する
非注視時間がB秒経過すると、今度は右頁が4頁目に書
き換えられることになる。
In the page data presenting section 13, when an instruction to rewrite the previous page is given from the page turning determining section 16, the left page displaying the data of the first page is rewritten to the data of the third page in accordance with the instruction. ((B) of FIG. 4). When the performance continues, the point of gaze moves to the third page, and the non-gaze time for the second page elapses B seconds, the right page is rewritten to the fourth page.

【0049】このようにして、ユーザが楽器の演奏中
は、ユーザ行動検出部17と注視点検出部18からの検
出情報に従って、楽譜の1頁目から4頁までが自動的に
めくられるようになる。
Thus, while the user is playing the musical instrument, the first to fourth pages of the musical score are automatically turned over according to the detection information from the user action detecting section 17 and the gazing point detecting section 18. Become.

【0050】なお、このような演奏時の履歴を楽譜デー
タとともに記憶しておけば、自動譜めくりがうまく働か
ない場合でも、手動でめくったタイミングを学習させる
ことができる。
If such a history of performance is stored together with the score data, even when automatic page turning does not work well, the turning timing can be learned manually.

【0051】この場合、演奏後に、履歴記憶部123の
内容から、図7に示すような頁めくりタイミングデータ
を切り出して、頁制御データの付加情報として記憶する
ようになる。また、記憶させた頁めくりタイミングデー
タを使って、演奏が始まってから終わるまでの間、前回
と同じタイミングで頁をめくることも可能である。
In this case, after the performance, page turning timing data as shown in FIG. 7 is cut out from the contents of the history storage unit 123 and stored as additional information of the page control data. Also, using the stored page turning timing data, it is possible to turn the page at the same timing as the previous time from the start to the end of the performance.

【0052】この場合、図8乃至図10に示すように、
頁めくりタイミングデータを編集するエディタを用意
し、自動頁めくりがうまくいかない頁のみ、決められた
時間になったら頁めくりするように指定することができ
る。
In this case, as shown in FIGS.
An editor for editing page turning timing data can be provided, and only pages for which automatic page turning does not work can be designated to turn pages at a predetermined time.

【0053】例えば、図8(a)に示すように「タイミ
ング」ボタン81を押すと、同図(b)に示すように、
現在表示中の楽譜に対応する頁めくりタイミングデータ
の一覧が表示される。
For example, when a “timing” button 81 is pressed as shown in FIG. 8A, as shown in FIG.
A list of page turning timing data corresponding to the currently displayed musical score is displayed.

【0054】そして、このような一覧から、例えば、カ
ーソルボタン82を押すと、斜線で示すカーソル位置が
上下する。この例では、画面の下に操作を誘導するメッ
セージ80が表示されている。
When the cursor button 82 is pressed from such a list, for example, the cursor position indicated by oblique lines moves up and down. In this example, a message 80 for guiding the operation is displayed at the bottom of the screen.

【0055】そして、このメッセージに従って所望する
タイミングデータの位置にカーソルをあわせて、選択ボ
タン83を押すと、図9(a)に示すようにタイミング
データが表示される。この例では、手動で頁めくりを行
った動作には、手の形のマークがついている。
When the cursor is moved to the position of the desired timing data in accordance with the message and the select button 83 is pressed, the timing data is displayed as shown in FIG. In this example, the operation of manually turning a page has a hand-shaped mark.

【0056】ここで、図9(b)に示すように、斜線で
示すカーソル位置を「手動頁めくり」84に合わせて、
上述の選択ボタン83を押すと、変更画面89が表示さ
れる。そして、この変更画面89の「時刻」85にカー
ソルを合わせて選択ボタン83を押すと、時刻が変更で
きる。また、この時刻を変更したあと選択ボタン83を
押し、同様にカーソルを動かして、図10(a)に示す
「動作」86を選択すると、手動から「タイミング」に
変更され、時間がきたら頁めくりを行うようになる。な
お、手動では両頁一度に頁めくりをする動作だったが、
図10(b)の「右頁」87を選んで、右頁は変更しな
いようにもできる。
Here, as shown in FIG. 9B, the cursor position indicated by oblique lines is set to "manual page turning" 84, and
When the above selection button 83 is pressed, a change screen 89 is displayed. Then, when the cursor is moved to “time” 85 on the change screen 89 and the select button 83 is pressed, the time can be changed. After changing the time, the user presses the select button 83, moves the cursor in the same manner, and selects the "operation" 86 shown in FIG. 10A. The operation is changed from "manual" to "timing". Will do. In addition, although it was an operation to turn the pages at the same time manually,
By selecting the “right page” 87 in FIG. 10B, the right page can be left unchanged.

【0057】そして、最後に図10(c)に示す「変
更」88を選択し、データの変更を完了する。同様にし
て、すべての頁めくりを時間で行うように指定すること
もできる。このようにして編集したタイミングデータを
頁制御データとともに記憶することで、再利用すること
ができる。次に、練習中に楽譜に対して、紙の楽譜と同
様に、速度、演奏方法の指示などのメモ情報を書き込め
るようにもできる。この場合、例えば電子ペンなどの入
力デバイスを用いて入力し、楽譜データとともに記憶す
るようになる。
Finally, "change" 88 shown in FIG. 10C is selected to complete the data change. Similarly, it is possible to specify that all the pages are turned in time. By storing the edited timing data together with the page control data in this way, it can be reused. Next, it is possible to write memo information, such as speed and performance method instructions, on the musical score during the practice in the same manner as on a musical score. In this case, for example, an input is made using an input device such as an electronic pen, and the input is stored together with the musical score data.

【0058】図11は、予め用意されるメモ情報や音
名、強弱記号等のコードの呈示方法を指示する画面を示
している。また、この画面は、メモ情報の一部だけ表示
したり、強弱記号を点滅させる、色を変えて表示するな
どの演奏支援機能を指定できるようになる。
FIG. 11 shows a screen for instructing a method for presenting chords such as memo information, note names, and dynamic symbols prepared in advance. Also, on this screen, it is possible to specify a performance support function such as displaying only a part of the memo information, blinking the dynamics symbol, and changing the color.

【0059】図12に譜面中にメモ情報121を書き込
んだ表示例を示している。この場合、図11のかわり
に、図13に示すように、直接メモ情報131を表示
し、表示の有無や表示方法を指定してもよい。また、表
示スケールの指定を加えれば、楽譜の複雑な部分や視力
の不十分な人へはズームアップして見せることも可能で
ある。次に、本発明の他の実施例を説明する。この他の
実施例では、上述の楽譜の頁めくり手法をプレゼンテー
ション資料呈示装置に応用するようにしている。
FIG. 12 shows a display example in which memo information 121 is written in a musical score. In this case, instead of FIG. 11, the memo information 131 may be directly displayed as shown in FIG. 13, and the presence / absence of the display and the display method may be designated. In addition, if a display scale is specified, it is possible to zoom in on a complicated portion of a musical score or a person with insufficient visual acuity. Next, another embodiment of the present invention will be described. In another embodiment, the above-described method of turning pages of a musical score is applied to a presentation material presenting apparatus.

【0060】この場合、ユーザの行動は、楽器の演奏デ
ータではなく、講演する音声によって検出する。また、
図14に示すように、プレゼンタには二つのモニタ画面
141、142が用意される。この場合のモニタ14
1、142は、例えば机の上に2枚広げておける程度の
大きさで、立ったままで文字が見えるものとする。
In this case, the action of the user is detected not by the performance data of the musical instrument but by the speech to be given. Also,
As shown in FIG. 14, two monitor screens 141 and 142 are prepared for the presenter. Monitor 14 in this case
Reference numerals 1 and 142 are, for example, large enough to be spread on a desk, and characters can be seen while standing.

【0061】プレゼンタのモニタ141、142は、楽
譜と同じような仕組みで頁めくりが行われる。そして、
聴衆へは、プレゼンタのモニタ141、142の一方と
同じ表示をスクリーン143に投影してみせる。ただ
し、スクリーン143へ投影するデータの切り替えは、
モニタ141、142の頁めくりと同期させず、プレゼ
ンタがある一定の基準時間(E秒)連続して注視した方
のモニタ141、142のデータを見せるようにする。
次に、その動作を簡単に説明する。
The pages of the monitors 141 and 142 of the presenter are turned in the same manner as the score. And
For the audience, the same display as one of the presenter's monitors 141 and 142 is projected on the screen 143. However, switching of the data to be projected on the screen 143 is as follows.
Instead of synchronizing with the page turning of the monitors 141 and 142, the data of the monitors 141 and 142 which the presenter watches continuously for a certain reference time (E seconds) is shown.
Next, the operation will be briefly described.

【0062】この場合、図14(a)で、プレゼンタが
左のモニタ141をE秒間注視すると、スクリーン14
3の表示は左モニタ141と同じ1番の資料が呈示され
る。次に、同図(b)に示すように、プレゼンタが右の
モニタ142をE秒間注視すると、スクリーン143の
表示は右のモニタ142と同じ2番の資料に切り替わ
る。
In this case, when the presenter gazes at the left monitor 141 for E seconds in FIG.
In the display of No. 3, the same material as the left monitor 141 is presented. Next, as shown in FIG. 6B, when the presenter gazes at the right monitor 142 for E seconds, the display on the screen 143 is switched to the same second material as the right monitor 142.

【0063】その間、プレゼンタは左モニタ141を見
ても聴衆を見てもスクリーン143を見ても良く、E秒
に満たなければ右モニタ142を確認のためにちらっと
見てもよいし、自由に動き回ることも可能である。
In the meantime, the presenter may look at the left monitor 141, the audience, or the screen 143. If less than E seconds, the presenter may glance at the right monitor 142 for confirmation, or freely. It is also possible to move around.

【0064】図14(b)の状態になったあと、上述し
た図6の頁めくり判定規則により、基準時間C秒たつ
と、図15(a)に示すように、左のモニタ141には
次の資料3番が呈示され、同図(b)のように、左のモ
ニタ141をE秒以上注視すればスクリーン143の表
示が左モニタ141のものに切り替わる。
After the state of FIG. 14 (b) is reached, the reference time is set to C seconds and the left monitor 141 is displayed on the left monitor 141 as shown in FIG. 3 is displayed, and if the left monitor 141 is gazed at for E seconds or more, the display on the screen 143 is switched to that of the left monitor 141 as shown in FIG.

【0065】このようにすれば、プレゼンタは、新しい
資料を聴衆に呈示する際、必ずその資料を確認するため
に注視するので、非常に自然に呈示する資料を切り替え
ることができる。ただし、基準時間Eを長くしすぎると
切り替えが遅れ、短すぎると誤動作が多くなるので、プ
レゼンタごとに時間を変更できるようにすることが必要
である。次に、本発明の異なる他の実施例を説明する。
In this way, when presenting a new material to the audience, the presenter always looks closely at the new material, so that the material to be presented can be switched very naturally. However, if the reference time E is too long, the switching is delayed, and if the reference time E is too short, malfunctions increase, so that it is necessary to be able to change the time for each presenter. Next, another embodiment of the present invention will be described.

【0066】図16は、異なる他の実施例の概略構成を
示している。図において、161は原稿160を読み取
るスキャナーで、このスキャナ161で読み取ったイメ
ージデータは、記憶部162のイメージデータ記憶部1
621に書き込まれる。このイメージ読み取りの際、原
稿160が複数頁に及ぶ場合には、その頁データが頁デ
ータ記憶部1622に記憶される。
FIG. 16 shows a schematic configuration of another different embodiment. In the figure, reference numeral 161 denotes a scanner for reading an original 160. Image data read by the scanner 161 is stored in an image data storage unit 1 of a storage unit 162.
621 is written. If the document 160 covers a plurality of pages during this image reading, the page data is stored in the page data storage unit 1622.

【0067】また、イメージデータ記憶部1621に記
憶されるイメージデータは、コード変換(認識)されな
いものの、その文字の位置情報(例えば何行分とか、何
文字程度のもの)が文字位置検出部163で検出され
る。
The image data stored in the image data storage unit 1621 is not subjected to code conversion (recognition), but the position information of the character (for example, how many lines or how many characters) is stored in the character position detection unit 163. Is detected by

【0068】一方、168はキーボードで、このキーボ
ード168からは、原稿160に書かれた文章がかな情
報で入力される。この入力されるかな情報は、かな漢字
変換部169に与えられ、ここで辞書170を参照して
かな漢字変換され、原稿160の文章と同じ内容がコー
ドデータとしてコードデータ記憶部1623に記憶され
る。
On the other hand, reference numeral 168 denotes a keyboard, from which text written on the document 160 is input as kana information. The input kana information is provided to a kana-kanji conversion unit 169, where the kana-kanji conversion is performed with reference to the dictionary 170, and the same contents as the text of the document 160 are stored in the code data storage unit 1623 as code data.

【0069】また、キーボード168から入力されるコ
ードデータの入力位置を示すカーソル位置は、カーソル
位置検出部167で検出される。そして、このカーソル
位置検出部167のコードデータの入力位置に基づいて
スクロール指示部166よりコードデータの入力量に応
じた表示領域の変更や改頁情報が出力され、データ提示
制御部164にスクロール指示情報として与えられる。
The cursor position indicating the input position of the code data input from the keyboard 168 is detected by the cursor position detector 167. Then, based on the input position of the code data of the cursor position detection unit 167, the scroll instruction unit 166 outputs a display area change or page break information according to the input amount of the code data, and sends a scroll instruction to the data presentation control unit 164. Given as information.

【0070】データ提示制御部164では、イメージデ
ータ記憶部1621のデータ内容とコードデータ記憶部
1623のデータ内容データがそれぞれ与えら、これら
データを表示部165に表示するようにしている。表示
部165では、図17に示すように同一画面上に用意さ
れたスキャナイメージ領域Aとワープロ文字領域Bにそ
れぞれイメージデータ記憶部1621とコードデータ記
憶部1623からのデータが表示される。
The data presentation control unit 164 receives the data content of the image data storage unit 1621 and the data content data of the code data storage unit 1623, and displays these data on the display unit 165. The display unit 165 displays data from the image data storage unit 1621 and the code data storage unit 1623 in a scanner image area A and a word processing character area B prepared on the same screen as shown in FIG.

【0071】この状態で、コードデータ記憶部1623
に入力されたデータ量と文字位置検出部163で検出さ
れた文字数(データ量)が比較され、コードデータ記憶
部1623のデータに相当するイメージデータ部分が領
域Aに表示されるようになっている。つまり、表示部1
65での領域Bでのコードデータのユーザに対するイメ
ージデータの見え方が最適になるように領域Aでの表示
が変化する。
In this state, the code data storage unit 1623
Is compared with the number of characters (data amount) detected by the character position detection unit 163, and an image data portion corresponding to the data in the code data storage unit 1623 is displayed in the area A. . That is, the display unit 1
The display in the area A is changed so that the image data of the image data in the area B at 65 is optimally viewed by the user.

【0072】従って、このようにすれば、手書き原稿を
スキャンで読み取ったイメージ領域Aとワープロで入力
したデータを表示する領域Bを同一画面に表示すること
ができる。つまり、ワープロ入力とともに、原稿も表示
画面で見られるようにしたことが特徴で、領域Aはユー
ザが入力したワープロデータ量に応じてスクロールし
て、領域Aはユーザの入力データに応じて見易く原稿を
移動、改頁してくれるのである。例えば、同一行内の未
表示部分があれば左右に移動(スクロール)し、あるい
は同一画面に未表示行があれば、上下にスクロールし、
また、次の頁ならば改頁を行うようになる。
Accordingly, in this manner, an image area A obtained by scanning a handwritten document and an area B for displaying data input by a word processor can be displayed on the same screen. In other words, the feature is that the manuscript can be viewed on the display screen together with the word processor input, and the area A scrolls according to the amount of word processing data input by the user, and the area A can be easily viewed according to the user input data. Will move and break the page. For example, if there is an undisplayed part in the same line, move (scroll) left or right, or if there is an undisplayed line on the same screen, scroll up and down,
Also, a page break is performed for the next page.

【0073】なお、上述では、表示部165でのスキャ
ナイメージデータの表示領域Aに対してワープロ入力に
よるコードデータ表示領域Bを並べて表示するようにし
たが、スキャナイメージデータとコードデータを2段に
して表示するようにしていもよい。なお、本発明は、上
記実施例にのみ限定されず、要旨を変更しない範囲で適
宜変形して実施できる。
In the above description, the code data display area B input by a word processor is displayed side by side with respect to the display area A of the scanner image data on the display unit 165. However, the scanner image data and the code data are displayed in two rows. May be displayed. The present invention is not limited to the above-described embodiment, and can be appropriately modified and implemented without changing the gist.

【0074】[0074]

【発明の効果】本発明によれば、ユーザの注視点と行動
の履歴から、自動的に頁めくりを行うタイミングを決定
することができるので、楽器の演奏時など両手が使えな
い状態でも、適切なタイミングで頁を切り替えることに
より、自然な頁めくり操作が可能になり、従来の画面の
特定位置を見なくてはいけない従視点位置検出手法を採
用したものと比べても、眼精疲労もおこりにくいなど、
ユーザの頁めくり操作に伴う物理的・心理的負担を軽減
できる。そして、特に電子楽譜として使用すれば、印刷
された楽譜の管理・運搬の負担が大幅に軽減される。ま
た、プレゼンテーション装置に応用すれば、発表者も聴
衆も頁めくり操作に煩わされることなく、発表内容に集
中することができる利点もある。
According to the present invention, the timing of turning pages can be automatically determined from the user's point of regard and the history of actions, so that even when both hands cannot be used, such as when playing a musical instrument, the present invention is applicable. Switching pages at the right time makes it possible to turn the page naturally, causing eye strain even when compared with the conventional method of detecting the position of the viewpoint, which has to look at a specific position on the screen. Difficult
It is possible to reduce the physical and psychological burden associated with the user's page turning operation. In particular, when used as electronic musical scores, the burden of managing and transporting printed musical scores is greatly reduced. Further, if the present invention is applied to a presentation device, there is also an advantage that the presenter and the audience can concentrate on the content of the presentation without being bothered by the page turning operation.

【0075】[0075]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の概略構成を示す図。FIG. 1 is a diagram showing a schematic configuration of an embodiment of the present invention.

【図2】一実施例の外観を示す図。FIG. 2 is a diagram showing an appearance of one embodiment.

【図3】入力データの一例を示す図。FIG. 3 is a diagram showing an example of input data.

【図4】頁めくりによる表示状態の変化を示す図。FIG. 4 is a diagram showing a change in a display state due to page turning.

【図5】頁めくりキーの表示例をを示す図。FIG. 5 is a view showing a display example of a page turning key.

【図6】頁めくり判定部の処理の流れを示す図。FIG. 6 is a diagram showing a flow of processing of a page turning determination unit.

【図7】頁めくりタイミングデータの一例を示す図。FIG. 7 is a diagram showing an example of page turning timing data.

【図8】頁めくりタイミングデータ編集用のエディタの
一例を示す図。
FIG. 8 is a diagram showing an example of an editor for editing page turning timing data.

【図9】頁めくりタイミングデータ編集用のエディタの
一例を示す図。
FIG. 9 is a view showing an example of an editor for editing page turning timing data.

【図10】頁めくりタイミングデータ編集用のエディタ
の一例を示す図。
FIG. 10 is a diagram showing an example of an editor for editing page turning timing data.

【図11】メモ情報呈示方法の指示画面の一例を示す
図。
FIG. 11 is a diagram showing an example of an instruction screen of a memo information presentation method.

【図12】メモ情報の呈示例を示す図。FIG. 12 is a diagram showing a presentation example of memo information.

【図13】メモ情報の呈示例を示す図。FIG. 13 is a diagram showing a presentation example of memo information.

【図14】本発明の他の実施例であるプレゼンテーショ
ン資料呈示装置への一応用例を示す図。
FIG. 14 is a diagram showing an example of application to a presentation material presenting apparatus according to another embodiment of the present invention.

【図15】同じくプレゼンテーション資料呈示装置への
一応用例を示す図。
FIG. 15 is a diagram showing an example of application to a presentation material presenting apparatus.

【図16】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 16 is a diagram showing a schematic configuration of another different embodiment of the present invention.

【図17】表示画面例を示す図。FIG. 17 is a diagram showing an example of a display screen.

【符号の説明】[Explanation of symbols]

11…データ入力部、12…記憶部、121…頁内容デ
ータ記憶部、122…頁制御データ記憶部、123…履
歴記憶部、13…頁データ呈示部、14…表示部、15
…頁めくり指示検出部、16…頁めくり判定部、17…
ユーザ行動抽出部、18…注視点検出部、20…電子楽
譜本体、21…ディスプレイ、22…頁めくりキー、2
3…内蔵マイク、24…小型カメラ、141…モニタ、
142…モニタ、143…スクリーン、160…原稿、
161…イメージデータ記憶部、162…記憶部、16
21…イメージデータ記憶部、1622…頁データ記憶
部、1623…コードデータ記憶部、163…文字位置
検出部、164…データ提示制御部、165…表示部、
167…カーソル位置検出部、168…キーボード、1
69…かな漢字変換部、170…辞書。
11 data input unit, 12 storage unit, 121 page content data storage unit, 122 page control data storage unit, 123 history storage unit, 13 page data presentation unit, 14 display unit, 15
... Page turning instruction detecting section, 16 ... Page turning determining section, 17 ...
User action extraction unit, 18: fixation point detection unit, 20: electronic score body, 21: display, 22: page turning key, 2
3: Built-in microphone, 24: small camera, 141: monitor,
142 monitor, 143 screen, 160 manuscript,
161, an image data storage unit; 162, a storage unit;
21 ... image data storage unit, 1622 ... page data storage unit, 1623 ... code data storage unit, 163 ... character position detection unit, 164 ... data presentation control unit, 165 ... display unit
167: Cursor position detector, 168: Keyboard, 1
69 ... Kana-Kanji conversion unit, 170 ... Dictionary.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G09G 5/00 530 G09G 5/00 530T G11B 27/00 G11B 27/00 E (56)参考文献 特開 平4−302381(JP,A) 特開 平4−282129(JP,A) 特開 平4−15772(JP,A) 特開 平3−173000(JP,A) 特開 平2−194470(JP,A) 特開 平4−45489(JP,A) 特開 平3−256112(JP,A) 特開 平1−122799(JP,A) 酒井 善則,ビジュアルインターフェ ース,情報処理,日本,社団法人 情報 処理学会,1992年2月15日,Vol. 33,No.2,pp.128−133. 山口 他,注視部分を精細に表示する 方法における画質の一検討,テレビジョ ン学会技術報告,日本,社団法人 テレ ビジョン学会,1990年2月15日,Vo l.14,No.12,pp.57−62. 塩 他,画像認識技術を用いたインテ リジェント テレモニタリング,テレビ ジョン学会技術報告,日本,社団法人 テレビジョン学会,1992年5月29日,V ol.16,No.31,pp.7−12. (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 380 G06F 17/30 110 G06F 17/30 310 G06F 17/21 564 G09G 5/00 510 G09G 5/00 530 G11B 27/00 JICSTファイル(JOIS)────────────────────────────────────────────────── ─── Continued on the front page (51) Int.Cl. 7 Identification symbol FI G09G 5/00 530 G09G 5/00 530T G11B 27/00 G11B 27/00 E (56) References JP-A-4-302381 (JP) JP-A-4-282129 (JP, A) JP-A-4-15772 (JP, A) JP-A-3-173000 (JP, A) JP-A-2-194470 (JP, A) 4-45489 (JP, A) JP-A-3-256112 (JP, A) JP-A-1-122799 (JP, A) Yoshinori Sakai, Visual Interface, Information Processing, Japan, Information Processing Society of Japan, Vol. 33, No. 15, February 15, 1992. 2, pp. 128-133. Yamaguchi et al., A study of image quality in the method of displaying the gaze portion in detail, Technical Report of the Television Society of Japan, Television Society of Japan, February 15, 1990, Vol. 14, No. 12, pp. 57-62. Shio et al., Intelligent Telemonitoring Using Image Recognition Technology, Technical Report of the Institute of Television Engineers of Japan, The Institute of Television Engineers of Japan, May 29, 1992, Vol. 16, No. 31 pp. 7-12. (58) Field surveyed (Int.Cl. 7 , DB name) G06F 17/30 380 G06F 17/30 110 G06F 17/30 310 G06F 17/21 564 G09G 5/00 510 G09G 5/00 530 G11B 27/00 JICST file (JOIS)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】内容データと、この頁内容データの呈示
順序と呈示位置である頁制御データを記憶するための
憶手段と、 この記憶手段に記憶された頁内容データを表示するため
表示手段と ユーザによる 前記表示手段への注視位置および時間を
出するための注視点検出手段と 前記 ユーザの行動を検出するためのユーザ行動検出手段
と、 このユーザ行動検出手段より検出されたユーザ行動
、前記注視点検出手段によって検出されたユーザの
位置および時間に基づいて頁内容データの頁めくり
を指示するための頁めくり判定手段と この頁めくり判定手段による頁めくりの指示をもとに、
前記記憶手段に記憶された頁制御データに従い前記表示
手段に対する各頁内容データを表示させるための頁デー
タ呈示手段と を具備したことを特徴とする資料呈示装
置。
And [claim 1] page content data, the presentation of the page content data
To display the serial <br/>憶means for storing the page control data is the order the presenting position, the page contents data stored in the storage means
A display means, a user action detection means for detecting a gaze point detection means for the gaze position and time to the display unit by a user to detect <br/>, the behavior of the user, this user behavior a behavior of the user detected from the detecting means, before SL on the basis of the note <br/> vision position and time of the user detected by the gaze point detecting means, a page for instructing the turning page of the page content data turning determination Means and a page turning instruction by the page turning determining means,
The display according to the page control data stored in the storage means;
Page data for displaying each page content data for the means
A document presenting device comprising : a data presenting means.
【請求項2】頁内容データを、この頁内容データの呈示
順序と呈示位置である頁制御データをもとに、表示手段
に呈示するための資料呈示方法において、 ユーザによる前記表示手段への注視位置および時間を検
出し、 前記ユーザの行動を検出し、 検出されたユーザの行動と、検出されたユーザの注視位
置および時間に基づいて、頁内容データの頁めくりの指
示を生成し、 この頁めくりの指示をもとに、前記頁制御データに従い
前記表示手段に対する各頁内容データを表示させること
を特徴とする資料呈示方法。
2. Presenting the page content data with the page content data
Display means based on the page control data which is the order and the presentation position
In the method of presenting a material for presenting on a display device, the gaze position and time of the user on the display means are detected.
And detects the user's behavior, and detects the detected user's behavior and the detected user's gaze position
Finger to turn the page content data based on location and time
The page control data based on the page turning instruction.
Displaying each page content data on the display means;
Material presentation method characterized by the following.
JP07472393A 1993-03-31 1993-03-31 Document presentation device and method Expired - Fee Related JP3359948B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07472393A JP3359948B2 (en) 1993-03-31 1993-03-31 Document presentation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07472393A JP3359948B2 (en) 1993-03-31 1993-03-31 Document presentation device and method

Publications (2)

Publication Number Publication Date
JPH06318235A JPH06318235A (en) 1994-11-15
JP3359948B2 true JP3359948B2 (en) 2002-12-24

Family

ID=13555435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07472393A Expired - Fee Related JP3359948B2 (en) 1993-03-31 1993-03-31 Document presentation device and method

Country Status (1)

Country Link
JP (1) JP3359948B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044041A (en) * 2001-07-27 2003-02-14 Yamaha Corp Musical score display device and control method therefor, program for musical score display and recording medium
JP4835898B2 (en) * 2004-10-22 2011-12-14 ソニー株式会社 Video display method and video display device
JP5110706B2 (en) * 2008-08-20 2012-12-26 株式会社河合楽器製作所 Picture book image reproduction apparatus, picture book image reproduction method, picture book image reproduction program, and recording medium
JP5558983B2 (en) * 2010-09-15 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 Screen display device, screen display control method, screen display control program, and information terminal device
KR20140041570A (en) 2011-06-24 2014-04-04 톰슨 라이센싱 Computer device operable with user's eye movement and method for operating the computer device
JP5974809B2 (en) * 2012-09-28 2016-08-23 大日本印刷株式会社 Display device, display control method, and display control program
EP2924685A3 (en) 2014-03-26 2016-01-13 Yamaha Corporation Score displaying method and computer program
JP5850092B2 (en) * 2014-06-05 2016-02-03 日本電気株式会社 Display device, control method, and program
JP2016051150A (en) * 2014-09-02 2016-04-11 株式会社ノモス Musical performance supporting system
US20200327869A1 (en) * 2016-05-31 2020-10-15 Gvido Music Co., Ltd. Electronic musical score device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01122799A (en) * 1987-11-09 1989-05-16 Mitsubishi Heavy Ind Ltd Cockpit display unit
JPH02194470A (en) * 1989-01-24 1990-08-01 Seiko Epson Corp Electronic translation machine
JP3159385B2 (en) * 1989-11-30 2001-04-23 株式会社東芝 Image display method and image display device
JPH03256112A (en) * 1990-03-07 1991-11-14 Toshiba Corp Control processor
JPH07101461B2 (en) * 1990-05-02 1995-11-01 株式会社エイ・ティ・アール通信システム研究所 Eye-tracking high-speed image generation and display method
JPH0445489A (en) * 1990-05-28 1992-02-14 Nippon Telegr & Teleph Corp <Ntt> Screen display controlling system
JPH04282129A (en) * 1991-03-08 1992-10-07 Fujitsu Ltd Gaze point analyzing device
JPH04302381A (en) * 1991-03-29 1992-10-26 Koudo Eizou Gijutsu Kenkyusho:Kk High-speed image generating device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
塩 他,画像認識技術を用いたインテリジェント テレモニタリング,テレビジョン学会技術報告,日本,社団法人 テレビジョン学会,1992年5月29日,Vol.16,No.31,pp.7−12.
山口 他,注視部分を精細に表示する方法における画質の一検討,テレビジョン学会技術報告,日本,社団法人 テレビジョン学会,1990年2月15日,Vol.14,No.12,pp.57−62.
酒井 善則,ビジュアルインターフェース,情報処理,日本,社団法人 情報処理学会,1992年2月15日,Vol.33,No.2,pp.128−133.

Also Published As

Publication number Publication date
JPH06318235A (en) 1994-11-15

Similar Documents

Publication Publication Date Title
US6128010A (en) Action bins for computer user interface
US10642463B2 (en) Interactive management system for performing arts productions
CA2939051C (en) Instant note capture/presentation apparatus, system and method
US20010037719A1 (en) Digital sheet music display system
RU2627096C2 (en) Methods for multimedia presentations prototypes manufacture, devices for multimedia presentations prototypes manufacture, methods for application of devices for multimedia presentations prototypes manufacture (versions)
US20060194181A1 (en) Method and apparatus for electronic books with enhanced educational features
JP2013536528A (en) How to create and navigate link-based multimedia
WO1998059334A2 (en) Transparent overlay viewer interface
JP2005267279A (en) Information processing system and information processing method, and computer program
JP3359948B2 (en) Document presentation device and method
US9122656B2 (en) Interactive blocking for performing arts scripts
US11093696B2 (en) Playable text editor and editing method therefor
JP6865701B2 (en) Speech recognition error correction support device and its program
US9870134B2 (en) Interactive blocking and management for performing arts productions
JPWO2019059207A1 (en) Display control device and computer program
JP4649082B2 (en) Method and system for automatically controlling functions during speech
JP5448372B2 (en) Selective information presentation device and selective information presentation processing program
JP3813132B2 (en) Presentation program and presentation apparatus
JP2002132131A (en) Remote education method and host computer for remote education as well as computer for student and image information synthesis method
KR101853322B1 (en) Device and method of learning application providing with editing of learning content
JP2006252208A (en) Annotation application device, annotation application method and program
JP2006065588A (en) Information reading device, information reading program, and information reading program recording medium
JP7481863B2 (en) Speech recognition error correction support device, program, and method
WO2023210387A1 (en) Information processing device, information processing method, and information processing system
JPH08194683A (en) Cai learning method for multimedia

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081011

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081011

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091011

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101011

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees