JP2016110550A - Information output control device and program - Google Patents

Information output control device and program Download PDF

Info

Publication number
JP2016110550A
JP2016110550A JP2014249741A JP2014249741A JP2016110550A JP 2016110550 A JP2016110550 A JP 2016110550A JP 2014249741 A JP2014249741 A JP 2014249741A JP 2014249741 A JP2014249741 A JP 2014249741A JP 2016110550 A JP2016110550 A JP 2016110550A
Authority
JP
Japan
Prior art keywords
information
output
input
output control
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014249741A
Other languages
Japanese (ja)
Other versions
JP6312045B2 (en
Inventor
重雄 倉掛
Shigeo Kurakake
重雄 倉掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014249741A priority Critical patent/JP6312045B2/en
Priority to US14/864,024 priority patent/US20160173840A1/en
Priority to CN201510907531.3A priority patent/CN105700803B/en
Publication of JP2016110550A publication Critical patent/JP2016110550A/en
Application granted granted Critical
Publication of JP6312045B2 publication Critical patent/JP6312045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reproduce and output information input in the case of associating an output object with a predetermined area where the output object is placed by using the association as a condition.SOLUTION: An information output control device (projector device) 1 includes an output information memory for storing information (input voice information) input from a microphone 5 while an output object (electronic paper 2) is placed in an external predetermined area (projection enabling area 3) in association with the output object, and when the output object is placed in the predetermined area again, reads input information stored in association with the output object from the output information memory, and reproduces and outputs the information from a speaker 6.SELECTED DRAWING: Figure 1

Description

本発明は、情報を出力する情報出力制御装置及びプログラムに関する。   The present invention relates to an information output control device and a program for outputting information.

一般に、情報を出力する情報出力制御装置として、例えば、外部の投影対象物(出力対象物:スクリーン)上に画像を投影表示させるプロジェクタ装置を利用して、各種の資料(画像)を出力対象物(スクリーン)上に投影させてプレゼンテーションを行う場合に、その発表者などは、スクリーン上の資料にしたがってその補足説明や注意事項などを口頭説明しながらスクリーン上の必要箇所を指示するようにしている。このような場合、従来では投影中の画像上でのペンの指示軌跡を投影中の画像上に投影するようにした技術が知られている(特許文献1参照)。更に、投影に関しては、移動する対象物上にプロジェクションマッピングで画像を投影するようにした技術(特許文献2参照)も知られている。   In general, as an information output control device that outputs information, for example, a projector device that projects and displays an image on an external projection target (output target: screen) is used to output various materials (images). When a presentation is made by projecting on a (screen), the presenter or the like instructs the necessary part on the screen while explaining the supplementary explanations and cautions in accordance with the materials on the screen. . In such a case, conventionally, a technique is known in which an instruction locus of a pen on an image being projected is projected onto the image being projected (see Patent Document 1). Furthermore, regarding projection, a technique (see Patent Document 2) in which an image is projected onto a moving object by projection mapping is also known.

特開2003−78686号公報JP 2003-78686 A 特開2013−192189号公報JP 2013-192189 A

しかしながら、上述した特許文献1の技術は、電子黒板のスクリーンを投影対象物とするものであるが、ペン操作されたデバイス上の位置を単に特定するものであり、どれを投影対象として、どのような内容の表示情報を投影表示させるのかを特定するものではなかった。また、上述した特許文献2の技術は、出力対象物の位置や形状の変化を確認して投影表示させるものであり、どれを対象として、どのような内容の表示情報を投影表示させるのかを特定するものではなかった。なお、このことはプロジェクタ装置に限らず、他の情報出力制御装置であっても同様の問題を生じる。   However, the technique of Patent Document 1 described above uses the screen of the electronic blackboard as the projection target, but simply specifies the position on the device operated by the pen. It did not specify whether to display the display information of the correct contents. In addition, the technique disclosed in Patent Document 2 described above is to project and display changes in the position and shape of an output object, and to specify what display information is to be projected and displayed. It wasn't something to do. Note that this is not limited to the projector apparatus, and the same problem occurs in other information output control apparatuses.

本発明の課題は、出力対象物とそれが置かれる所定エリアとの関連付けで入力された情報をその関連付けを条件として再現出力できるようにすることである。   An object of the present invention is to make it possible to reproduce and output information input in association with an output object and a predetermined area where the output object is placed, on the condition of the association.

上述した課題を解決するために本発明は、
情報を出力する情報出力制御装置であって、
入力された情報を取得する入力情報取得手段と、
当該制御装置の外部の所定エリア内に置かれた所定の出力対象物を特定する特定手段と、
前記特定手段によって特定された出力対象物が前記所定エリア内に実在している間に前記入力情報取得手段によって取得された入力情報をその出力対象物に対応付けて記憶する情報記憶手段と、
前記所定エリア内に前記出力対象物が再び置かれた場合にその出力対象物に対応付けて記憶されている入力情報を前記情報記憶手段から読み出して再現出力する出力制御手段と、
を備えることを特徴とする。
In order to solve the above-described problems, the present invention
An information output control device that outputs information,
Input information acquisition means for acquiring input information;
A specifying means for specifying a predetermined output object placed in a predetermined area outside the control device;
Information storage means for storing the input information acquired by the input information acquisition means in association with the output object while the output object specified by the specification means actually exists in the predetermined area;
Output control means for reading out and reproducing the input information stored in association with the output object when the output object is placed again in the predetermined area;
It is characterized by providing.

本発明によれば、出力対象物とそれが置かれる所定エリアとの関連付けで入力された情報をその関連付けを条件として再現出力することができる。   According to the present invention, it is possible to reproduce and output information input in association with an output object and a predetermined area where the output object is placed, on the condition of the association.

情報出力制御装置として適用したカメラ機能付きプロジェクタ装置の使用例を示した図。The figure which showed the usage example of the projector apparatus with a camera function applied as an information output control apparatus. カメラ機能付きプロジェクタ装置の基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the projector apparatus with a camera function. (1)〜(5)は、投影可能エリア3内に置かれた電子ペーパ2に関連付けて表示される投影内容及び音声の入出力状況を説明するための図。(1)-(5) is a figure for demonstrating the projection content displayed in relation to the electronic paper 2 set | placed in the projectable area 3, and the input / output state of an audio | voice. 出力情報メモリM3を説明するための図。The figure for demonstrating the output information memory M3. 電源投入に応じて実行開始されるカメラ付のプロジェクタ装置1の動作(第1実施形態の特徴的な動作)を説明するためのフローチャート。6 is a flowchart for explaining an operation (characteristic operation of the first embodiment) of the projector apparatus 1 with a camera that is started in response to power-on. 図5の動作に続くフローチャート。6 is a flowchart following the operation of FIG. 第2実施形態において情報出力制御装置(ノート型PC)100の使用例を示した図。The figure which showed the usage example of the information output control apparatus (notebook-type PC) 100 in 2nd Embodiment. 第2実施形態において、ノート型PC100、表示デバイス200、携帯端末装置300の基本的な構成要素を示したブロック図。The block diagram which showed the fundamental component of notebook type PC100, the display device 200, and the portable terminal device 300 in 2nd Embodiment. (1)〜(4)は、第2実施形態において、表示デバイス200上に携帯端末装置300が置かれた状態での表示内容を説明するための図。(1)-(4) is a figure for demonstrating the display content in the state in which the portable terminal device 300 was placed on the display device 200 in 2nd Embodiment. 第2実施形態の出力情報メモリM3を説明するための図。The figure for demonstrating the output information memory M3 of 2nd Embodiment. 第2実施形態において、表示デバイス200への表示を制御する“表示デバイス制御モード”が選択された際に実行開始されるフローチャートIn the second embodiment, a flowchart that is started when a “display device control mode” for controlling display on the display device 200 is selected. 図11の動作に続くフローチャート。12 is a flowchart following the operation of FIG.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図6を参照して本発明の第1実施形態を説明する。
第1実施形態は、表示情報を出力する情報出力制御装置としてカメラ付のプロジェクタ装置に適用した場合を例示したもので、図1は、このカメラ機能付きプロジェクタ装置の使用例を示した図である。
情報出力制御装置(カメラ付のプロジェクタ装置)1は、プロジェクタ機能の他に、カメラ機能、通信機能などを備えている。このプロジェクタ装置1は、例えば、金融機関などの窓口業務において机面上に資料を掲示しながら担当者と顧客とが対面応対している場合、又は会議室において机面上に資料を掲示しながら参加者が会議している場合にその机面全体を撮影したり、投影表示させたりするもので、部屋の天井面や壁面などに固定的に配設されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
1st Embodiment illustrated the case where it applies to the projector apparatus with a camera as an information output control apparatus which outputs display information, and FIG. 1 is the figure which showed the usage example of this projector apparatus with a camera function. .
The information output control device (projector device with camera) 1 has a camera function, a communication function, and the like in addition to the projector function. For example, the projector device 1 displays a document on a desk while posting a document on a desk in a counter service such as a financial institution, or displays a document on a desk in a meeting room. When a participant is in a meeting, the entire desk is photographed or projected and is fixedly arranged on the ceiling or wall of the room.

すなわち、カメラ付のプロジェクタ装置1は、机面上に実在する出力対象物(電子ペーパ2)に対してその上方から表示情報に応じた光を照射して投影表示させたり、机面全体を撮影したりする。図示の例は、窓口業務において、机面上の所定エリア(投影可能エリア)内3に、資料としての電子ペーパ2と、それ以外の物体(例えば、携帯端末装置4)が置かれた状態を示したもので、プロジェクタ装置1は、机面上の所定エリア(投影可能エリア)3を撮影した画像を解析することにより電子ペーパ2とそれ以外の物体とを識別するようにしている。   That is, the projector device 1 with a camera irradiates light according to display information onto an output target object (electronic paper 2) existing on the desk surface to project and display it, or shoots the entire desk surface. To do. The illustrated example shows a state in which electronic paper 2 as a material and other objects (for example, a mobile terminal device 4) are placed in a predetermined area (projectable area) 3 on a desk in a window service. As shown, the projector apparatus 1 discriminates the electronic paper 2 from other objects by analyzing an image obtained by photographing a predetermined area (projectable area) 3 on the desk surface.

電子ペーパ2は、それに関連付けてその特有の表示情報を表示させる際のターゲットとなる出力対象物、つまり、プロジェクタ装置1の外部に実在する出力対象物であり、その電子ペーパ2に表示される情報は、窓口業務の資料となるもので、例えば、個人情報などの秘匿情報、或いは株価、売上状況などのリアルタイム情報をプロジェクタ装置1から電子ペーパ2に対して投影表示させるようにしている。すなわち、プロジェクタ装置1は、後で詳述するが、電子ペーパ2が机面上の所定のエリア(投影可能エリア)3内に置かれた場合に、その電子ペーパ2に対応付けて予め記憶されている表示情報が、投影可能エリア3内の電子ペーパ2に関連付けて表示されるようにその表示情報の出力を制御するようにしているが、電子ペーパ2が投影可能エリア3から離れた場合には、この表示情報の投影表示を消去させるように制御するようにしている。   The electronic paper 2 is an output object that is a target when displaying the display information unique to the electronic paper 2, that is, an output object that actually exists outside the projector apparatus 1, and information displayed on the electronic paper 2. Is a window business document. For example, confidential information such as personal information, or real-time information such as stock price and sales status is projected and displayed on the electronic paper 2 from the projector device 1. That is, as will be described in detail later, when the electronic paper 2 is placed in a predetermined area (projectable area) 3 on the desk surface, the projector device 1 is stored in advance in association with the electronic paper 2. The display information is output so as to be displayed in association with the electronic paper 2 in the projectable area 3, but when the electronic paper 2 is separated from the projectable area 3. Controls to delete the projection display of the display information.

なお、電子ペーパ2は、例えば、電気泳動現象を利用したマイクロカプセル方式の電子ペーパ(電気泳動ディスプレイ)によって構成され、対向する一対の電極の間に着色荷電粒子(荷電体)が充填された媒体が多数配置されており、この一対の電極間に電圧が印加されると、この媒体内の荷電粒子がその印加電圧に応じた方向に移動することで表示を行う構成となっている。また、矩形の机面の各周端縁部(4辺縁部)には、指向性の高いマイク5及びスピーカ6が配設されている。   The electronic paper 2 is constituted by, for example, a microcapsule type electronic paper (electrophoretic display) using an electrophoretic phenomenon, and a medium in which colored charged particles (charged bodies) are filled between a pair of opposed electrodes. Are arranged, and when a voltage is applied between the pair of electrodes, the charged particles in the medium move in a direction corresponding to the applied voltage to perform display. In addition, microphones 5 and speakers 6 with high directivity are disposed at each peripheral edge (four edges) of the rectangular desk surface.

机面上の投影可能エリア3は、撮影可能なエリアであり、プロジェクタ装置1は、この投影可能エリア3内を撮影した画像を解析することによってそのエリア3内に電子ペーパ2が実在していることを認識すると、その電子ペーパ2に関連付けてそのペーパ特有の表示情報を投影表示させる動作を開始する。なお、プロジェクタ装置1は、投影可能エリア3を撮影した画像から電子ペーパ2が実在している位置を特定すると、その位置の方向に投影方向(照射方向)を調整する機能を備えている。   The projectable area 3 on the desk surface is a photographable area, and the projector apparatus 1 analyzes the image photographed in the projectable area 3 so that the electronic paper 2 actually exists in the area 3. When this is recognized, an operation of projecting and displaying display information unique to the paper in association with the electronic paper 2 is started. Note that the projector device 1 has a function of adjusting the projection direction (irradiation direction) in the direction of the position when the position where the electronic paper 2 actually exists is identified from the image obtained by photographing the projectable area 3.

すなわち、プロジェクタ装置1には、投影方向調整機能(図示省略)が備えられており、電子ペーパ2の実在位置に応じてその光学系を駆動することにより投影可能エリア3の範囲内において投影方向を自由に調整可能としている。また、プロジェクタ装置1は、投影可能エリア3内に実在している電子ペーパ2に対して投影動作を開始すると、投影可能エリア3を撮影した画像を解析しながらその電子ペーパ2が投影可能エリア3から離れてそのエリア外となったかを監視しており、上述したように、そのエリア3から離れたことを検出したときには、その電子ペーパ2に対する投影動作を停止する(投影表示を消去させる)ようにしている。   That is, the projector device 1 is provided with a projection direction adjustment function (not shown), and the projection direction is set within the range of the projectable area 3 by driving the optical system according to the actual position of the electronic paper 2. It can be freely adjusted. In addition, when the projector apparatus 1 starts a projection operation on the electronic paper 2 that actually exists in the projectable area 3, the electronic paper 2 is projected in the projectable area 3 while analyzing an image of the projectable area 3. As described above, when it is detected that the user has left the area 3, the projection operation for the electronic paper 2 is stopped (the projection display is erased). I have to.

図2は、情報出力制御装置(カメラ付のプロジェクタ装置)1の基本的な構成要素を示したブロック図である。
プロジェクタ装置1は、CPU11を中核とするもので、CPU11は、記憶部12内の各種のプログラムに応じてこのプロジェクタ装置1の全体動作を制御する中央演算処理装置である。記憶部12は、例えば、ROM、フラッシュメモリなどを有する構成で、図5及び図6に示した動作手順に応じて本実施形態を実現するためのプログラムを記憶するプログラムメモリM1と、このプロジェクタ装置1で必要とされる各種のデータ(計時時刻、タイマ計測時間、フラグなど)を一時記憶するワークメモリM2と、後述する出力情報メモリM3などを有している。なお、記憶部12は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介して通信網に接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。
FIG. 2 is a block diagram showing basic components of the information output control device (projector device with camera) 1.
The projector device 1 has a CPU 11 as a core, and the CPU 11 is a central processing unit that controls the overall operation of the projector device 1 in accordance with various programs in the storage unit 12. The storage unit 12 includes, for example, a ROM, a flash memory, and the like, and has a program memory M1 that stores a program for realizing the present embodiment in accordance with the operation procedure illustrated in FIGS. 1 has a work memory M2 for temporarily storing various data (time measurement time, timer measurement time, flag, etc.) required by 1 and an output information memory M3 described later. The storage unit 12 may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card, and is connected to a communication network via a communication function (not shown). In such a state, a storage area on a predetermined server device side may be included.

CPU11には、その入出力デバイスとして、操作部13、外部接続部14、通信部15、カメラ部16、プロジェクタ部17などが接続されており、CPU11は、入出力プログラムにしたがって各入出力デバイスを制御する。操作部13は、電源ボタン、投影調整ボタンなどを有している。外部接続部14は、パーソナルコンピュータ(PC)、記録メディアなどの外部装置(図示省略)が接続されるコネクタ部である。通信部15は、例えば、無線LAN(Local Area Network)又はBluetooth(登録商標)通信を介して外部装置に通信接続する通信インターフェイスであり、上述したマイク5及びスピーカ6との間で音声情報の送受信を行う。   The CPU 11 is connected with an operation unit 13, an external connection unit 14, a communication unit 15, a camera unit 16, a projector unit 17, and the like as input / output devices. The CPU 11 determines each input / output device according to an input / output program. Control. The operation unit 13 includes a power button, a projection adjustment button, and the like. The external connection unit 14 is a connector unit to which an external device (not shown) such as a personal computer (PC) or a recording medium is connected. The communication unit 15 is a communication interface that is connected to an external device through, for example, a wireless LAN (Local Area Network) or Bluetooth (registered trademark) communication, and transmits and receives audio information between the microphone 5 and the speaker 6 described above. I do.

カメラ部16は、上述した撮影機能を構成するもので、図示しない撮影レンズ、ミラーなどのレンズ・ミラーブロック、撮像素子、その駆動系の他、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを有するもので、自動的に焦点を合わせるオート他ス機能、撮影範囲を制御するズーム機能などが設けられている。また、プロジェクタ部17は、上述したプロジェクタ機能を構成するもので、電源供給によって点灯する投影用ライト17aと、投影対象の画像を映し出す透過型液晶パネル17bと、投影レンズ17cとを有する他、投影用ライト17aを制御してそのオン/オフや輝度などを調整する光源調整部17dと、透過型液晶パネル17bを駆動する駆動部17eと、投影レンズ17cのピント、ズームなどを調整するレンズ調整部17fなどを有している。なお、カメラ部16の撮影レンズの光軸方向は、投影レンズ17cの光軸方向と一致し、上述した投影可能エリア3を撮影可能となっている。   The camera unit 16 constitutes the above-described photographing function. In addition to a photographing lens (not shown), a lens / mirror block such as a mirror, an image sensor, and a driving system thereof, a distance measuring sensor, a light amount sensor, an analog processing circuit, a signal processing The circuit has a circuit, a compression / decompression circuit, etc., and is provided with an auto-other function for automatically focusing, a zoom function for controlling the photographing range, and the like. The projector unit 17 constitutes the projector function described above, and includes a projection light 17a that is turned on when power is supplied, a transmissive liquid crystal panel 17b that projects an image to be projected, and a projection lens 17c. A light source adjustment unit 17d that controls the light 17a and adjusts its on / off and brightness, a drive unit 17e that drives the transmissive liquid crystal panel 17b, and a lens adjustment unit that adjusts the focus and zoom of the projection lens 17c 17f and the like. The optical axis direction of the photographing lens of the camera unit 16 matches the optical axis direction of the projection lens 17c, and the above-described projectable area 3 can be photographed.

図3は、投影可能エリア3内に置かれた電子ペーパ2に関連付けて表示される投影内容及び音声の入出力状況を説明するための図である。
第1実施形態のプロジェクタ装置1は、所定エリア(投影可能エリア3)内に出力対象物(電子ペーパ2)が置かれた場合に、その電子ペーパ2に対応付けられている表示情報を出力情報メモリM3から読み出して投影表示させるが、この電子ペーパ2が投影可能エリア3内に実在している間に任意の音声情報が入力された場合には、その入力音声情報を電子ペーパ2に対応付けて出力情報メモリM3に登録しておき、その後、再びその電子ペーパ2が投影可能エリア3内に置かれたタイミングでその電子ペーパ2に対応する音声情報を出力情報メモリM3から読み出して再現出力するようにしている。
FIG. 3 is a diagram for explaining the input / output status of the projection content and the sound displayed in association with the electronic paper 2 placed in the projectable area 3.
When the output object (electronic paper 2) is placed in a predetermined area (projectable area 3), the projector device 1 according to the first embodiment outputs display information associated with the electronic paper 2 as output information. When read out from the memory M3 and projected and displayed, if any audio information is input while the electronic paper 2 exists in the projectable area 3, the input audio information is associated with the electronic paper 2. Are registered in the output information memory M3, and then the audio information corresponding to the electronic paper 2 is read from the output information memory M3 and reproduced and output at the timing when the electronic paper 2 is again placed in the projectable area 3. I am doing so.

図3(1)は、電子ペーパ2自身がタイトルとして固定的に表示している情報、例えば、“世界の株価と為替”を示した図で、この電子ペーパ2が机面上の投影可能エリア3内に置かれた際に、プロジェクタ装置1は、その電子ペーパ2に対応して記憶されている表示情報を読み出して投影可能エリア3内の電子ペーパ2上に投影表示させる。図3(2)は、投影表示された状態を示し、タイトル“世界の株価と為替”に続いて、その詳細な本文情報が電子ペーパ2上に投影表示された場合である。   FIG. 3A is a diagram showing information fixedly displayed as a title by the electronic paper 2 itself, for example, “world stock prices and exchange rates”. The electronic paper 2 is a projectable area on the desk. When placed in the projector 3, the projector device 1 reads out display information stored corresponding to the electronic paper 2 and projects and displays it on the electronic paper 2 in the projectable area 3. FIG. 3 (2) shows a state of projection display, and is a case where the detailed text information is projected and displayed on the electronic paper 2 following the title “World Stock Price and Exchange”.

CPU11は、投影可能エリア3内に電子ペーパ2が実在している間、指向性の高いマイク5によって集音された入力音声を受信して、その電子ペーパ2の識別情報と共にその音声情報を出力情報メモリM3に録音するようにしている。この場合、投影可能エリア3内の電子ペーパ2の向き(例えば、正面向き)を基準として、どの方向又は位置から音声が入力されたのかを判別し、その音声の入力方向又は位置を音声の入力元を示す情報として、入力された音声情報と共に、出力情報メモリM3に記憶するようにしている。この出力情報メモリM3に記憶された音声情報は、その電子ペーパ2が再び投影可能エリア3内に置かれた際に、その電子ペーパ2に対応して記憶されている入力元を示す情報に基づいて、その音声情報の出力先を決定し、その出力先の方向又は位置に配設されている指向性の高いスピーカ6から音声出力させるようにしている。なお、一般に音声情報とは、人間が音声器官を通じて発した音の情報を意味しているが、第1実施形態では人間が発した音の総称を意味している。   While the electronic paper 2 is actually present in the projectable area 3, the CPU 11 receives the input sound collected by the highly directional microphone 5 and outputs the sound information together with the identification information of the electronic paper 2. Recording is performed in the information memory M3. In this case, with reference to the direction of the electronic paper 2 in the projectable area 3 (for example, the front direction), it is determined from which direction or position the sound is input, and the input direction or position of the sound is input to the sound. Information indicating the origin is stored in the output information memory M3 together with the input audio information. The audio information stored in the output information memory M3 is based on information indicating an input source stored corresponding to the electronic paper 2 when the electronic paper 2 is placed in the projectable area 3 again. Thus, the output destination of the sound information is determined, and the sound is output from the speaker 6 having high directivity disposed in the direction or position of the output destination. In general, the voice information means information of sound emitted by a person through a voice organ, but in the first embodiment, it means a generic name of sounds emitted by a person.

図3(3)は、上述のようにして音声入力後に、再び、その電子ペーパ2が投影可能エリア3内に置かれた場合を示した図である。プロジェクタ装置1は、再度、投影可能エリア3内に電子ペーパ2が置かれると、その電子ペーパ2を認識してその表示情報を出力情報メモリM3から読み出して投影表示させ、また、音声情報を読み出すと共にその音声情報の出力先を決定して音声情報を出力先のスピーカ6から音声出力させるようにしている。図3(4)は、図3(2)で示した音声の入力方向又は位置と同じ方向又は位置を出力先として決定した場合を示し、図3(5)は、図3(2)で示した音声の入力方向又は位置とは逆の方向又は位置を出力先として決定した場合を示している。   FIG. 3 (3) is a diagram showing a case where the electronic paper 2 is again placed in the projectable area 3 after voice input as described above. When the electronic paper 2 is again placed in the projectable area 3, the projector device 1 recognizes the electronic paper 2, reads out the display information from the output information memory M 3, projects it, and reads out the audio information. At the same time, the output destination of the audio information is determined, and the audio information is output from the output destination speaker 6. FIG. 3 (4) shows a case where the same direction or position as the voice input direction or position shown in FIG. 3 (2) is determined as an output destination, and FIG. 3 (5) is shown in FIG. 3 (2). This shows a case where the direction or position opposite to the input direction or position of the voice is determined as the output destination.

図4は、出力情報メモリM3を説明するための図である。
出力情報メモリM3は、複数の出力対象物(電子ペーパ2)に対応付けてその表示情報及び入力音声情報を記憶管理するもので、「ペーパ識別情報」、「表示情報」、「入力音声情報」、「入力方向/入力位置」、「出力中フラグ」の各項目を有している。「ペーパ識別情報」は、電子ペーパ2の個々を識別する情報であり、「識別画像」、「ID」の項目を有している。「識別画像」は、投影可能エリア3を撮影した画像内から電子ペーパ2の部分を抽出した画像であり、例えば、電子ペーパ2に表示されているタイトル名などの表示内容を識別情報とするものである。「ID」は、電子ペーパ2の個々を識別するために生成された数値列データ(例えば、一連番号)などである。
FIG. 4 is a diagram for explaining the output information memory M3.
The output information memory M3 stores and manages display information and input voice information in association with a plurality of output objects (electronic paper 2). “Paper identification information”, “display information”, “input voice information” , “Input direction / input position”, and “output flag”. The “paper identification information” is information for identifying each electronic paper 2 and includes items of “identification image” and “ID”. The “identification image” is an image obtained by extracting a part of the electronic paper 2 from an image obtained by photographing the projectable area 3. For example, the display content such as a title name displayed on the electronic paper 2 is used as identification information. It is. “ID” is numeric string data (for example, a serial number) generated to identify each individual electronic paper 2.

「表示情報」は、電子ペーパ2に対応して予め記憶されている表示情報であり、例えば、タイトル名として“世界の株価と為替”が表示されている電子ペーパ2に対応してその詳細内容を示す本文情報が「表示情報」となる。「入力音声情報」は、投影可能エリア3内に電子ペーパ2が実在している間に入力されて録音された音声情報である。「入力方向/入力位置」は、入力された音声は、どこから入力されたのかを示す入力元で、図1の例では、机面の4辺縁部に配設されている各マイク5及びスピーカを4つの方向/位置(上下左右)に分けると、その上下左右のいずれかが入力元として記憶される。「出力中フラグ」は、電子ペーパ2に関連付けて投影表示させている状態であることを示すフラグである。   “Display information” is display information stored in advance corresponding to the electronic paper 2, for example, the detailed contents corresponding to the electronic paper 2 displaying “World Stock Price and Exchange” as the title name. The body information indicating “display information”. The “input voice information” is voice information that is input and recorded while the electronic paper 2 actually exists in the projectable area 3. “Input direction / input position” is an input source that indicates where the input sound is input. In the example of FIG. 1, each microphone 5 and speaker arranged on the four edges of the desk surface. Is divided into four directions / positions (up / down / left / right), one of up / down / left / right is stored as an input source. The “output flag” is a flag indicating that the electronic paper 2 is being projected and displayed in association with the electronic paper 2.

次に、第1実施形態における情報出力制御装置(カメラ付のプロジェクタ装置)1の動作概念を図5及び図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。   Next, the operation concept of the information output control apparatus (projector apparatus with a camera) 1 in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. The same applies to other embodiments described later. In addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium.

図5及び図6は、電源投入に応じて実行開始されるプロジェクタ装置1の動作(第1実施形態の特徴的な動作)を説明するためのフローチャートである。以下、図3を参照して第1実施形態の特徴的な動作を具体的に説明するものとする。
先ず、プロジェクタ装置1のCPU11は、電源投入に応じてカメラ部16を起動させ、机面上の投影可能エリア3内の撮影を開始して、その撮影画像を逐次取り込む(図5のステップA1)。そして、投影可能エリア3内の撮影画像を逐次取得して画像解析を行いながら(ステップA2)、投影可能エリア3内に電子ペーパ2が置かれたかを調べたり(ステップA3)、投影可能エリア3から電子ペーパ2が離されたかを調べたりする(ステップA4)。
FIGS. 5 and 6 are flowcharts for explaining the operation of the projector device 1 (characteristic operation of the first embodiment) that is started in response to power-on. The characteristic operation of the first embodiment will be specifically described below with reference to FIG.
First, the CPU 11 of the projector device 1 activates the camera unit 16 in response to power-on, starts photographing in the projectable area 3 on the desk surface, and sequentially captures the photographed images (step A1 in FIG. 5). . Then, while sequentially acquiring captured images in the projectable area 3 and performing image analysis (step A2), it is checked whether the electronic paper 2 is placed in the projectable area 3 (step A3), It is checked whether or not the electronic paper 2 has been released (step A4).

すなわち、電子ペーパ2の形状、大きさ、電子ペーパ2に付加されている識別マークなどを画像認識することにより電子ペーパ2が投影可能エリア3内に入ってきたか、又は出て行ったかを調べるが、その際、連続する複数の撮影画像を比較しながら電子ペーパ2の出し入れのタイミングを検出する(ステップA3、A4)。ここで、電子ペーパ2の出し入れを検出しなければ(ステップA3及びA4でNO)、図6のフローに移り、投影可能エリア3内に電子ペーパ2が実在していることを条件に(ステップA16)、各マイク5からの出力信号を受信して(ステップA17)、周波数分析を行い、いずれからのマイク5から所定音量(レベル)以上の音声情報が入力されたかを調べる(ステップA18)。ここで、いずれのマイク5からも音声情報が入力されなければ(ステップA18でNO)、図5のステップA2に戻る。   That is, whether the electronic paper 2 has entered or exited the projectable area 3 is checked by recognizing an image of the shape and size of the electronic paper 2 and an identification mark added to the electronic paper 2. At that time, the timing of putting in and out the electronic paper 2 is detected while comparing a plurality of consecutive captured images (steps A3 and A4). Here, if the insertion / extraction of the electronic paper 2 is not detected (NO in Steps A3 and A4), the process proceeds to the flow of FIG. 6 on the condition that the electronic paper 2 actually exists in the projectable area 3 (Step A16). ), The output signal from each microphone 5 is received (step A17), frequency analysis is performed, and it is examined from which microphone 5 audio information of a predetermined sound volume (level) or more has been input (step A18). If no audio information is input from any microphone 5 (NO in step A18), the process returns to step A2 in FIG.

いま、図3(1)に示すように電子ペーパ2が投影可能エリア3内に置かれたことを検出すると(ステップA3でYES)、投影可能エリア3を撮影した画像の中からその電子ペーパ2の部分の画像(ペーパ画像)を抽出し(ステップA5)、このペーパ画像に基づいて出力情報メモリM3を検索し、その電子ペーパ2が登録されているか、つまり、そのペーパ画像が出力情報メモリM3の「ペーパ識別情報」の「識別画像」に記憶されているかを調べる(ステップA6)。ここで、電子ペーパ2が登録されていなければ(ステップA6でNO)、その未登録の電子ペーパ2を無視するために上述のステップA2に戻るが、登録されている電子ペーパ(登録ペーパ)2であれば(ステップA6でYES)、その登録ペーパ2の「表示情報」を出力情報メモリM3から読み出し取得すると共に(ステップA7)、登録ペーパ2の実在位置を検出取得する(ステップA8)。この場合、投影可能エリア3内においてその基準点(例えば、左上角部)を起点として、電子ペーパ2が実在している位置(平面座標系の位置)を検出して取得する。   If it is detected that the electronic paper 2 is placed in the projectable area 3 as shown in FIG. 3 (1) (YES in step A3), the electronic paper 2 is picked up from an image obtained by photographing the projectable area 3. Is extracted (step A5), the output information memory M3 is searched based on this paper image, and whether the electronic paper 2 is registered, that is, the paper image is the output information memory M3. Whether it is stored in the “identification image” of “paper identification information” (step A6). If the electronic paper 2 is not registered (NO in step A6), the process returns to step A2 to ignore the unregistered electronic paper 2, but the registered electronic paper (registered paper) 2 If so ("YES" at step A6), the "display information" of the registered paper 2 is read out from the output information memory M3 (step A7), and the actual position of the registered paper 2 is detected and acquired (step A8). In this case, the position where the electronic paper 2 actually exists (the position in the plane coordinate system) is detected and acquired from the reference point (for example, the upper left corner) in the projectable area 3.

そして、上述のようにして取得した「表示情報」を、その検出位置(実在位置)に投影表示させる動作を開始して、その「出力中フラグ」をオンする(ステップA9)。このような投影表示によって電子ペーパ2の表示内容は、図3(1)に示す状態から図3(2)に示す状態に変化する。次に、登録ペーパ2に対応して「入力音声情報」が出力情報メモリM3に記憶されているかを調べ(ステップA10)、「入力音声情報」が記憶されていなければ(ステップA10でNO)、上述のステップA2に戻る。   Then, an operation of projecting and displaying the “display information” acquired as described above at the detection position (actual position) is started, and the “output flag” is turned on (step A9). With such projection display, the display content of the electronic paper 2 changes from the state shown in FIG. 3A to the state shown in FIG. Next, it is checked whether or not “input voice information” is stored in the output information memory M3 corresponding to the registered paper 2 (step A10). If “input voice information” is not stored (NO in step A10), The process returns to step A2.

いま、図3(2)に示すように投影可能エリア3内に実在している電子ペーパ2に情報を投影表示させている状態において、いずれのマイク8から音声情報が入力されたものとすると、図6のステップA18で音声入力有りと判別されるため、ステップA19に移り、各マイク5からの出力信号(マイク信号)に基づいて音声の入力元を特定する(ステップA19)。すなわち、各マイク5からの出力信号(マイク信号)を周波数分析して最も高いレベル(音圧)のマイク5を特定し、投影可能エリア3内の電子ペーパ2の向きを基準として、そのマイク5の配置方向又は位置を音声の入力方向又は位置(入力元情報)として特定する。そして、入力された音声情報を取得し(ステップA20)、ペーパ画像を「識別画像」とし、一連番号を更新した値を「ID」とするペーパ識別情報を生成する(ステップA21)。そして、この「ペーパ識別情報」に対応付けて入力音声情報と入力元情報を出力情報メモリM3の「入力音声情報」に登録する処理を行う(ステップA22)。その後、図5のステップA2に戻る。   Assuming that audio information is input from any microphone 8 in a state where information is projected and displayed on the electronic paper 2 that actually exists in the projectable area 3 as shown in FIG. Since it is determined in step A18 in FIG. 6 that there is a voice input, the process proceeds to step A19, and the voice input source is specified based on the output signal (microphone signal) from each microphone 5 (step A19). That is, the output signal (microphone signal) from each microphone 5 is frequency-analyzed to identify the microphone 5 having the highest level (sound pressure), and the microphone 5 with reference to the direction of the electronic paper 2 in the projectable area 3. Is specified as the voice input direction or position (input source information). Then, the input voice information is acquired (step A20), and paper identification information having the paper image as “identification image” and the updated serial number as “ID” is generated (step A21). Then, the input voice information and the input source information are registered in the “input voice information” of the output information memory M3 in association with the “paper identification information” (step A22). Then, it returns to step A2 of FIG.

このようにして電子ペーパ2に関連付けて入力された音声情報を登録した後、その電子ペーパ2が投影可能エリア3から離れた場合には(ステップA4でYES)、次のステップA13に移り、そのペーパの「出力中フラグ」がオンされているかを調べる。ここで、「出力中フラグ」がオンされていなければ(ステップA13でNO)、上述のステップA2に戻るが、この場合、「出力中フラグ」はオンされているので(ステップA13でYES)、次のステップA14に移り、その投影表示を終了させる。これによって投影表示が消去されるため、電子ペーパ2の表示内容は、図3(2)の表示状態から図3(1)の表示状態に移る。その後、「出力中フラグ」をオフ(ステップA15)した後、ステップA2に戻る。   After registering the voice information input in association with the electronic paper 2 in this way, if the electronic paper 2 is separated from the projectable area 3 (YES in step A4), the process proceeds to the next step A13, Check whether the “output flag” is turned on. If the “output flag” is not turned on (NO in step A13), the process returns to the above-described step A2, but in this case, the “output flag” is turned on (YES in step A13). Proceeding to the next step A14, the projection display is terminated. As a result, the projection display is erased, and the display content of the electronic paper 2 shifts from the display state of FIG. 3 (2) to the display state of FIG. 3 (1). Thereafter, the “output flag” is turned off (step A15), and then the process returns to step A2.

上述のように音声情報を入力した後において、図3(3)に示すように、タイトル名などの情報が表示されている電子ペーパ2が投影可能エリア3内に再び置かれた場合には(ステップA3でYES)、その電子ペーパ2が出力情報メモリM3に登録されていることを条件に(ステップA6)、その登録ペーパ2対応の「表示情報」を出力情報メモリM3から読み出して投影表示させる(ステップA7〜A9)。そして、登録ペーパ2に対応して「入力音声情報」が登録されているかを調べるが(ステップA10)、この場合、登録されているので(ステップA10でYES)、登録ペーパ2対応の「入力音声情報」及び「入力方向又は入力位置」を読み出し、この「入力方向又は入力位置」に基づいて出力先のスピーカ6を決定する(ステップA11)。   After the audio information is input as described above, when the electronic paper 2 on which information such as the title name is displayed is placed again in the projectable area 3 as shown in FIG. On the condition that the electronic paper 2 is registered in the output information memory M3 (step A6), “display information” corresponding to the registered paper 2 is read out from the output information memory M3 and projected and displayed. (Steps A7 to A9). Then, it is checked whether or not “input voice information” is registered corresponding to the registered paper 2 (step A10). In this case, since it is registered (YES in step A10), the “input voice information” corresponding to the registered paper 2 is checked. Information ”and“ input direction or input position ”are read out, and the output destination speaker 6 is determined based on this“ input direction or input position ”(step A11).

ここで、CPU11は、出力先のスピーカ6を決定する際に、その入力方向又は位置に対して同じ方向又は位置を出力先として決定するか、逆の方向又は位置を出力先として決定するか、ユーザ操作により任意に設定された方向又は位置を出力先として決定するかの3種類のうち、予めユーザ操作によって任意に選択された種類に基づいてその出力先を決定するようにしている。図3(4)は、図3(2)で示した音声の入力方向又は位置と同じ方向又は位置を出力先として決定した場合を示している。また、図3(5)は、図3(2)で示した音声の入力方向又は位置とは逆の方向又は位置を出力先として決定した場合を示している。このようにして出力先を決定すると、その決定した出力先のスピーカ6から「入力音声情報」を発生出力させる(ステップA12)。その後、ステップA2に戻る。   Here, when determining the output destination speaker 6, the CPU 11 determines the same direction or position as the output destination for the input direction or position, or determines the opposite direction or position as the output destination, Of the three types of whether the direction or position arbitrarily set by the user operation is determined as the output destination, the output destination is determined based on the type arbitrarily selected in advance by the user operation. FIG. 3 (4) shows a case where the same direction or position as the voice input direction or position shown in FIG. 3 (2) is determined as the output destination. FIG. 3 (5) shows a case where the direction or position opposite to the voice input direction or position shown in FIG. 3 (2) is determined as the output destination. When the output destination is determined in this way, “input voice information” is generated and output from the speaker 6 of the determined output destination (step A12). Thereafter, the process returns to step A2.

以上のように、第1実施形態における情報出力制御装置(プロジェクタ装置)1は、出力対象物(電子ペーパ2)が外部の所定エリア(投影可能エリア3)内に置かれている間に入力された情報(入力音声情報)をその電子ペーパ2に対応付けて記憶する出力情報メモリM3を備え、その電子ペーパ2が再び投影可能エリア3内に置かれた場合にその電子ペーパ2に対応付けて記憶されている入力音声情報を出力情報メモリM3から読み出して再現出力するようにしたので、電子ペーパ2と投影可能エリア3とを関連付けて入力された音声情報をその関連付けを条件として再現出力することができる。したがって、電子ペーパ2を投影可能エリア3内に置くだけで、例えば、窓口業務での顧客の意見、又は会議参加者の意見などを再現出力することが可能となる。   As described above, the information output control device (projector device) 1 in the first embodiment is input while the output object (electronic paper 2) is placed in the predetermined external area (projectable area 3). Output information memory M3 for storing the information (input voice information) in association with the electronic paper 2, and when the electronic paper 2 is placed in the projectable area 3 again, the information is associated with the electronic paper 2. Since the stored input voice information is read from the output information memory M3 and reproduced and output, the voice information input by associating the electronic paper 2 and the projectable area 3 is reproduced and output on the condition of the association. Can do. Therefore, by simply placing the electronic paper 2 in the projectable area 3, for example, it is possible to reproduce and output a customer's opinion or a meeting participant's opinion in the window service.

プロジェクタ装置1のCPU11は、投影可能エリア3内に電子ペーパ2が実在していることを特定できなくなった場合にその入力情報の再現出力を終了するようにしたので、投影可能エリア3内に電子ペーパ2が実在していることを条件に入力情報を再現出力することができる。   The CPU 11 of the projector apparatus 1 ends the reproduction output of the input information when it becomes impossible to specify that the electronic paper 2 actually exists in the projectable area 3. The input information can be reproduced and output on condition that the paper 2 actually exists.

CPU11は、入力された情報が、投影可能エリア3内の電子ペーパ2を基準として、どの方向又は位置に入力されたかを判別し、その判別結果を入力元を示す情報としてその電子ペーパ2に対応付けて出力情報メモリM3に記憶しておき、入力情報を再現出力する際に、入力元を示す情報に基づいて、出力する方向又は位置を決定し、この決定した方向又は位置を出力先として再現出力するようにしたので、出力先を固定化するのではなく、入力元に基づいて出力先を変えることができる。   The CPU 11 determines in which direction or position the input information is input with reference to the electronic paper 2 in the projectable area 3, and the determination result corresponds to the electronic paper 2 as information indicating the input source. At the same time, when the input information is reproduced and output, the output direction or position is determined based on the information indicating the input source, and the determined direction or position is reproduced as the output destination. Since the output is made, the output destination can be changed based on the input source instead of fixing the output destination.

CPU11は、入力元を示す情報に基づいて出力先を決定する場合に、その入力方向又は位置に対して同じ方向又は位置、逆の方向又は位置、任意に設定された方向又は位置のいずれかを出力先として決定するようにしたので、例えば、入力方向又は位置に対して同じ方向又は位置を出力先として決定すれば、再現出力された入力情報は誰の意見か、例えば、窓口業務で複数の顧客が居る場合又は会議で複数の参加者が居る場合に、どの顧客又は参加者からの意見であるかを容易に確認することができる。また、入力方向又は位置に対して逆の方向又は位置を出力先として決定すれば、対面応対の場合に対面相手の意見を間近で聞くことができる。また、入力方向又は位置に対して任意に設定された方向又は位置を出力先として決定すれば、複数の顧客や参加者の意見を一か所に集めて間近で聞くことができる。   When determining the output destination based on the information indicating the input source, the CPU 11 selects either the same direction or position, the opposite direction or position, or the arbitrarily set direction or position with respect to the input direction or position. Since it is determined as the output destination, for example, if the same direction or position is determined as the output destination with respect to the input direction or position, the input information that is reproduced and output is, When there is a customer or when there are a plurality of participants in a meeting, it is possible to easily confirm which customer or participant has the opinion. In addition, if the direction or position opposite to the input direction or position is determined as the output destination, in the case of face-to-face meeting, the opinion of the face-to-face partner can be heard up close. Further, if the direction or position arbitrarily set with respect to the input direction or position is determined as the output destination, opinions of a plurality of customers and participants can be gathered in one place and listened to up close.

投影可能エリア3内に実在している電子ペーパ2を識別する識別情報を生成し、この識別情報に対応付けて記憶させた入力情報を出力情報メモリM3から読み出して再現出力するようにしたので、電子ペーパ2とその入力情報との対応関係が明確となり、電子ペーパ2毎にその入力情報を再現出力することができる。   Since the identification information for identifying the electronic paper 2 that actually exists in the projectable area 3 is generated, the input information stored in association with this identification information is read from the output information memory M3 and reproduced and output. Correspondence between the electronic paper 2 and the input information becomes clear, and the input information can be reproduced and output for each electronic paper 2.

なお、上述した第1実施形態においては、入力情報として音声情報を例示したが、例えば、手書き情報を入力情報としてもよい。すなわち、指やペンの動きをカメラ部16によって撮影し、この撮影画像を解析してその指示軌跡から手書き情報を生成して出力情報メモリM3に登録するようにしてもよい。また、指やペンの動きよって手書き情報を入力する場合に限らず、例えば、電源供給されている電子ペーパ2上で電磁誘導方式の電子ペンによって電子ペーパ内に任意に手書きされた情報をカメラ部16によって撮影して取り込み、この撮影画像を解析して出力情報メモリM3に入力情報として登録するようにしてもよい。なお、上述のように電磁誘導方式の電子ペンによって電子ペーパ2内に情報を書き込んだとしても、後でその手書き情報を電子ペーパ2内から消去しておけばよい。このように電子ペーパ2内から手書き情報を消去したとしても、その後、その電子ペーパ2を所定のエリア(投影可能エリア3)内に再び置くことにより、その電子ペーパ2内には手書き情報が投影表示(再現出力)される。   In the above-described first embodiment, voice information is exemplified as input information. However, handwritten information may be input information, for example. That is, the movement of the finger or pen may be photographed by the camera unit 16, the photographed image may be analyzed, handwritten information may be generated from the indicated locus, and registered in the output information memory M3. Further, the present invention is not limited to the case where handwritten information is input by the movement of a finger or a pen. For example, information that is arbitrarily handwritten in electronic paper by an electromagnetic induction electronic pen on electronic paper 2 that is supplied with power. The captured image may be captured by 16 and the captured image may be analyzed and registered as input information in the output information memory M3. Even if information is written in the electronic paper 2 with the electromagnetic induction electronic pen as described above, the handwritten information may be erased from the electronic paper 2 later. Even if the handwritten information is erased from the electronic paper 2 in this way, the handwritten information is then projected into the electronic paper 2 by placing the electronic paper 2 again in a predetermined area (projectable area 3). Displayed (reproduced output).

更に、電子ペーパが雑誌などの各ページを切り替えて表示する場合に、例えば、1ページ目を表示している電子ペーパ上で追記操作が行われると、その1ページ目の表示内容を識別用のキーとして、手書き情報をその1ページ目に対応付けて記憶しておき、次回、その1ページ目を表示している電子ペーパが置かれた際に、そのページに対応付けて記憶されている手書き情報を、その1ページ目の表示内容を識別用のキーとして読み出してそのページの中に追記し、以下、2ページ目以降も同様で、各ページの表示内容をページ識別用のキーとし、各ページが切り替え表示される毎に、ページ毎に手書きされた情報を追記するようにしてもよい。   Further, when the electronic paper switches and displays each page of a magazine or the like, for example, when an additional writing operation is performed on the electronic paper displaying the first page, the display content of the first page is identified. As a key, handwritten information is stored in association with the first page, and when the electronic paper displaying the first page is placed next time, the handwritten information stored in association with the page is stored. Read the information displayed on the first page as the identification key and add it to the page. The same applies to the second and subsequent pages. The information displayed on each page is the key for page identification. You may make it add the handwritten information for every page whenever a page is switched and displayed.

上述した実施形態においては、出力対象物として、電子ペーパ2を例示したが、例えば、タッチスクリーン、液晶パネル、有機EL(Electro Luminescence)ディスプレイ、などのその他の表示デバイス、又は雑誌やノート、置物や装飾具、紙片などの単なる物体であってもよい。この場合、プロジェクションマッピングで画像を物体上に投影表示させるようにしてもよい。   In the embodiment described above, the electronic paper 2 is exemplified as the output object. However, for example, other display devices such as a touch screen, a liquid crystal panel, and an organic EL (Electro Luminescence) display, or a magazine, a notebook, an ornament, It may be a simple object such as a decoration or a piece of paper. In this case, an image may be projected and displayed on the object by projection mapping.

(第2実施形態)
以下、この発明の第2実施形態について図7〜図12を参照して説明する。
なお、上述した第1実施形態においては、情報出力制御装置としてプロジェクタ装置1、出力対象物として電子ペーパ2、所定エリアとして机面上の投影可能エリア3、入力情報として音声情報を例示したが、この第2実施形態においては、情報出力制御装置としてノート型PC(パーソナルコンピュータ)、出力対象物として投影対象物の電子ペーパ2、所定エリアとして机面上の表示デバイス、入力情報として手書き情報を例示したものである。ここで、両実施形態において基本的或いは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, the projector device 1 is used as the information output control device, the electronic paper 2 is used as the output object, the projectable area 3 on the desk is used as the predetermined area, and the audio information is used as the input information. In the second embodiment, a notebook PC (personal computer) is used as the information output control device, the electronic paper 2 of the projection object is used as the output object, a display device on the desk is used as the predetermined area, and handwritten information is used as the input information. It is a thing. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図7は、ノート型PCの使用例を示した図である。
情報出力制御装置(ノート型PC)100は、窓口業務において机面上に資料を掲示しながら担当者と顧客とが対面応対している場合にその机面上に敷かれている表示デバイス200に通信接続されるもので、基本的な各種の機能の他、表示デバイス200、携帯端末装置300との間で短距離通信を行う通信機能を備えている。表示デバイス200は、所定エリア内として机面上にその略全面に敷かれるシート状のタッチスクリーンで、机面の大きさを持ったシート状の液晶パネル(図示省略)と、この液晶パネルの上に積層配置された同形同大のタッチパネル(図示省略)を有する構成となっている。なお、表示デバイス200を構成するタッチスクリーンは、マトリクススイッチ方式、抵抗膜方式、静電容量方式、電磁誘導方式、赤外線遮断方式など、いずれの方式であってもよい。この表示デバイス(タッチスクリーン)102には、ノート型PC100との間で短距離通信を行う通信機能が備えられている。
FIG. 7 is a diagram showing an example of using a notebook PC.
The information output control device (notebook type PC) 100 is displayed on the display device 200 laid on the desk when the person in charge and the customer face each other while posting the material on the desk in the window service. In addition to various basic functions, the communication device is provided with a communication function for performing short-range communication with the display device 200 and the mobile terminal device 300. The display device 200 is a sheet-like touch screen laid on the entire surface of a desk within a predetermined area. The display device 200 has a sheet-like liquid crystal panel (not shown) having the size of the desk surface, The touch panel has the same shape and the same size (not shown) arranged in layers. Note that the touch screen constituting the display device 200 may be any system such as a matrix switch system, a resistive film system, a capacitance system, an electromagnetic induction system, or an infrared shielding system. The display device (touch screen) 102 has a communication function for performing short-distance communication with the notebook PC 100.

この表示デバイス200上に任意の携帯端末装置300が置かれると、表示デバイス200は、携帯端末装置300が置かれたことを検出してその端末検出信号をノート型PC100に与える。ノート型PC100は、表示デバイス200からの端末検出信号に応答してその携帯端末装置300を出力対象物として認識し、その携帯端末装置300に対応付けられている表示情報が、その携帯端末装置300の近傍位置に表示されるように表示デバイス200への表示を制御するようにしている。顧客や担当者は、表示デバイス200上に置かれた携帯端末装置300の表示内容(資料)を見ながら対面応対を行うが、その際、ノート型PC100は、表示デバイス200上に携帯端末装置300が置かれると、表示デバイス200内における携帯端末装置300の近傍位置にその端末特有の表示情報を表示させるためにその表示情報を表示デバイス200に送信するようにしている。   When an arbitrary portable terminal device 300 is placed on the display device 200, the display device 200 detects that the portable terminal device 300 is placed and gives a terminal detection signal to the notebook PC 100. The notebook PC 100 recognizes the portable terminal device 300 as an output object in response to the terminal detection signal from the display device 200, and the display information associated with the portable terminal device 300 is the portable terminal device 300. The display on the display device 200 is controlled so as to be displayed in the vicinity of the. The customer or the person in charge performs a face-to-face meeting while viewing the display contents (documents) of the mobile terminal device 300 placed on the display device 200. At that time, the notebook PC 100 is placed on the display device 200 on the mobile terminal device 300. Is displayed, the display information is transmitted to the display device 200 in order to display the display information peculiar to the terminal in the vicinity of the portable terminal device 300 in the display device 200.

携帯端末装置300は、その近傍位置にその端末特有の表示情報を表示させる際のターゲットとなる出力対象物であり、つまり、ノート型PC100の外部に実在する出力対象物であり、例えば、タブレット端末、スマートフォン、PDA(個人向け携帯型情報通信機器)などである。この出力対象物(携帯端末装置300)に会議の資料などの表示情報が表示されている状態でその携帯端末装置30010が表示デバイス200上の任意の位置に置かれると、表示デバイス200は、その接触状態から携帯端末装置300が置かれた接触位置(携帯端末装置300の実在位置)を検出してノート型PC100に送信し、また、携帯端末装置300は、自己の端末識別情報(端末ID)を発信出力してノート型PC100に送信する。   The mobile terminal device 300 is an output target that is a target when displaying display information specific to the terminal in its vicinity, that is, an output target that actually exists outside the notebook PC 100, for example, a tablet terminal , Smartphones, PDAs (personal portable information communication devices), and the like. When the portable terminal device 30010 is placed at an arbitrary position on the display device 200 in a state where display information such as conference materials is displayed on the output object (the portable terminal device 300), the display device 200 The contact position (the actual position of the mobile terminal device 300) where the mobile terminal device 300 is placed is detected from the contact state and transmitted to the notebook PC 100. The mobile terminal device 300 also has its own terminal identification information (terminal ID). Is transmitted and output to the notebook PC 100.

なお、携帯端末装置300は、表示デバイス200上に置かれている間、ユーザ操作によって自己の端末識別情報(端末ID)を定期的に発信出力するようにしている。ノート型PC100は、携帯端末装置300からその端末IDを受信すると、表示デバイス200上に置かれた携帯端末装置300を特定し、また、表示デバイス200から携帯端末装置300の実在位置を受信すると、その実在位置に基づいて携帯端末装置300の近傍位置(端末特有の表示情報を表示させる位置)を特定するようにしている。   The mobile terminal device 300 periodically transmits and outputs its own terminal identification information (terminal ID) by a user operation while being placed on the display device 200. When the notebook PC 100 receives the terminal ID from the mobile terminal device 300, the notebook PC 100 specifies the mobile terminal device 300 placed on the display device 200, and receives the actual position of the mobile terminal device 300 from the display device 200. Based on the actual position, a position in the vicinity of the mobile terminal device 300 (a position for displaying terminal-specific display information) is specified.

図8は、ノート型PC100、表示デバイス200、携帯端末装置300の基本的な構成要素を示したブロック図である。
ノート型PC100は、CPU101を中核とするもので、このCPU101は、記憶部102内の各種のプログラムに応じてこのノート型PC100の全体動作を制御する中央演算処理装置である。記憶部102は、例えば、ROM、フラッシュメモリなどを有する構成で、図11及び図12に示した動作手順に応じて本実施形態を実現するためのプログラムを記憶するプログラムメモリM1と、このノート型PC100で必要とされる各種のデータ(計時時刻、タイマ計測時間、フラグなど)を一時記憶するワークメモリM2と、後述する出力情報メモリM3などを有している。
FIG. 8 is a block diagram illustrating basic components of the notebook PC 100, the display device 200, and the mobile terminal device 300.
The notebook PC 100 has a CPU 101 as a core, and the CPU 101 is a central processing unit that controls the overall operation of the notebook PC 100 according to various programs in the storage unit 102. The storage unit 102 includes, for example, a ROM, a flash memory, etc., and a program memory M1 that stores a program for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 11 and 12, and the notebook type It has a work memory M2 for temporarily storing various data (time measurement time, timer measurement time, flag, etc.) required by the PC 100, an output information memory M3 described later, and the like.

CPU101には、その入出力デバイスとして、操作部103、表示部104、外部接続部105、広域通信部106などの他に、短距離通信部107が接続されており、CPU101は、入出力プログラムにしたがって各入出力デバイスを制御する。短距離通信部107は、例えば、無線LAN(Local Area Network)又はBluetooth(登録商標)通信を介して表示デバイス200又は携帯端末装置300に通信接続する通信インターフェイスである。   In addition to the operation unit 103, the display unit 104, the external connection unit 105, the wide area communication unit 106, and the like as an input / output device, the CPU 101 is connected to a short-range communication unit 107. Therefore, each input / output device is controlled. The short-range communication unit 107 is a communication interface that is connected to the display device 200 or the mobile terminal device 300 via, for example, a wireless LAN (Local Area Network) or Bluetooth (registered trademark) communication.

表示デバイス200は、CPU201を中核とするもので、このCPU201は、記憶部202内の各種のプログラムに応じてこの表示デバイス200の全体動作を制御する。CPU201には、その入出力デバイスとして、タッチスクリーン203、短距離通信部204などが接続されており、CPU201は、入出力プログラムにしたがって各入出力デバイスを制御する。タッチスクリーン203は、マトリクススイッチ方式、抵抗膜方式、静電容量方式、電磁誘導方式、赤外線遮断方式など、いずれの方式であってもよい。短距離通信部204は、無線LAN又はBluetooth(登録商標)通信を介してノート型PC100との間で通信接続する通信インターフェイスである。   The display device 200 has the CPU 201 as a core, and the CPU 201 controls the entire operation of the display device 200 according to various programs in the storage unit 202. A touch screen 203, a short-range communication unit 204, and the like are connected to the CPU 201 as input / output devices, and the CPU 201 controls each input / output device according to an input / output program. The touch screen 203 may be any method such as a matrix switch method, a resistance film method, a capacitance method, an electromagnetic induction method, an infrared shielding method, or the like. The short-range communication unit 204 is a communication interface for communication connection with the notebook PC 100 via a wireless LAN or Bluetooth (registered trademark) communication.

携帯端末装置300は、CPU301を中核とするもので、このCPU301は、記憶部302内の各種のプログラムに応じてこの携帯端末装置300の全体動作を制御する。CPU301には、その入出力デバイスとして、タッチスクリーン303、短距離通信部304などが接続されており、CPU301は、入出力プログラムにしたがって各入出力デバイスを制御する。短距離通信部304は、無線LAN又はBluetooth(登録商標)通信を介してノート型PC100との間で通信接続する通信インターフェイスである。   The mobile terminal device 300 has a CPU 301 as a core, and the CPU 301 controls the overall operation of the mobile terminal device 300 according to various programs in the storage unit 302. A touch screen 303, a short-range communication unit 304, and the like are connected to the CPU 301 as input / output devices, and the CPU 301 controls each input / output device according to an input / output program. The short-range communication unit 304 is a communication interface that connects and communicates with the notebook PC 100 via a wireless LAN or Bluetooth (registered trademark) communication.

図9は、表示デバイス200上に携帯端末装置300が置かれた状態での表示内容を説明するための図である。
図9(1)は、表示デバイス200上に携帯端末装置300が置かれた状態でその携帯端末装置300自身が表示情報を表示している状態を例示したもので、図示の例では営業者(自己)の目標達成状況を表示している携帯端末装置300が表示デバイス2060上に置かれた場合を示している。図9(2)は、図9(1)の状態において表示デバイス200上の任意の位置に営業評価結果として上位ランクを示す“A”が手書き入力された場合を示している。ノート型PC100は、携帯端末装置300が表示デバイス200上に実在している間に手書き入力された情報を表示デバイス200から受信取得すると、その携帯端末装置300に対応付けてその入力情報(手書き情報)を表示情報として出力情報メモリM3に記憶するようにしている。
FIG. 9 is a diagram for explaining display contents in a state where the mobile terminal device 300 is placed on the display device 200.
FIG. 9A illustrates a state in which the mobile terminal device 300 is displaying display information when the mobile terminal device 300 is placed on the display device 200. In the example shown in FIG. This shows a case where the mobile terminal device 300 displaying the self achievement status is placed on the display device 2060. FIG. 9 (2) shows a case where “A” indicating the higher rank as a business evaluation result is input by handwriting at an arbitrary position on the display device 200 in the state of FIG. 9 (1). When the notebook PC 100 receives and obtains information input by handwriting from the display device 200 while the mobile terminal device 300 actually exists on the display device 200, the notebook PC 100 associates the input information (handwritten information with the mobile terminal device 300). ) As display information in the output information memory M3.

図9(3)は、手書き入力後において、再び、図9(1)に示した表示内容の携帯端末装置300が表示デバイス200上に置かれた場合を示し、ノート型PC100は、その携帯端末装置300を特定して、それに対応する表示情報(手書き入力情報)を出力情報メモリM3から読み出して表示デバイス200に送信し、携帯端末装置300の近傍に表示させる。図9(4)は、携帯端末装置300の近傍位置に手書き入力情報(営業評価結果)として“A”ランクが付加表示された状態を示している。この場合、手書き入力情報として、営業評価を例示したので、入力情報“A”に続けて“ランク”の文字列を付加表示するようにしている。   FIG. 9 (3) shows a case where the portable terminal device 300 having the display contents shown in FIG. 9 (1) is again placed on the display device 200 after handwritten input. The device 300 is specified, and the display information (handwritten input information) corresponding to the device 300 is read from the output information memory M3, transmitted to the display device 200, and displayed near the portable terminal device 300. FIG. 9 (4) shows a state in which “A” rank is additionally displayed as handwritten input information (business evaluation result) in the vicinity of the mobile terminal device 300. In this case, since the business evaluation is exemplified as the handwritten input information, the character string “rank” is additionally displayed after the input information “A”.

図10は、出力情報メモリM3を説明するための図である。
出力情報メモリM3は、複数の出力対象物(携帯端末装置300)に対応付けてその表示情報を記憶管理するもので、「端末識別情報」、「表示情報(手書き入力情報)」、「出力中フラグ」の各項目を有している。「端末識別情報」は、携帯端末装置300の個々を識別するID情報であり、「表示情報(手書き入力情報)」は、表示デバイス200上で手書き入力された情報である。「出力中フラグ」は、携帯端末装置300の近傍位置に手書き入力情報を表示させている状態であることを示すフラグである。
FIG. 10 is a diagram for explaining the output information memory M3.
The output information memory M3 stores and manages display information in association with a plurality of output objects (portable terminal devices 300), and includes “terminal identification information”, “display information (handwritten input information)”, “under output” Each item of “Flag” is included. The “terminal identification information” is ID information for identifying each mobile terminal device 300, and the “display information (handwritten input information)” is information input by handwriting on the display device 200. The “output flag” is a flag indicating that handwritten input information is being displayed in the vicinity of the mobile terminal device 300.

図11及び図12は、表示デバイス200への表示を制御する“表示デバイス制御モード”が選択された際に実行開始されるフローチャートである。以下、図9を参照して第2実施形態の特徴的な動作を具体的に説明するものとする。
先ず、ノート型PC100は、表示デバイス200上に所定の携帯端末装置300が置かれたかを調べたり(図11のステップB1)、表示デバイス200上から所定の携帯端末装置300が離されたかを調べたりする(ステップB2)。ここで、表示デバイス200は、何らかの物体が置かれた場合にその接触状態の形状及び大きさから所定の携帯端末装置300が置かれたことを検出し、また、何らかの物体が離れた場合にはそれまで物体が接触していたときの接触状態の形状及び大きさから所定の携帯端末装置300が離れたことを検出して、その検出信号をノート型PC100に送信する。
11 and 12 are flowcharts that are started when a “display device control mode” for controlling display on the display device 200 is selected. The characteristic operation of the second embodiment will be specifically described below with reference to FIG.
First, the notebook PC 100 checks whether or not the predetermined portable terminal device 300 is placed on the display device 200 (step B1 in FIG. 11), or checks whether or not the predetermined portable terminal device 300 is released from the display device 200. (Step B2). Here, when any object is placed, the display device 200 detects that the predetermined portable terminal device 300 is placed from the shape and size of the contact state, and when any object is left. It detects that the predetermined portable terminal device 300 has been separated from the shape and size of the contact state when the object has been in contact so far, and transmits the detection signal to the notebook PC 100.

ノート型PC100は、表示デバイス200上に所定の携帯端末装置300が置かれたことを示す検出信号、及び携帯端末装置300が離れたことを示す検出信号を受信しなければ(ステップB1、びB2)、図12のフローに移り、携帯端末装置300が表示デバイス200上に実在しているかを調べる(ステップB12)。この場合、表示デバイス200上には携帯端末装置300が実在していないので(ステップB12でNO)、図11のステップA1に戻る。   The notebook PC 100 does not receive the detection signal indicating that the predetermined mobile terminal device 300 is placed on the display device 200 and the detection signal indicating that the mobile terminal device 300 is separated (steps B1 and B2). ), The process proceeds to the flow of FIG. 12 to check whether the mobile terminal device 300 actually exists on the display device 200 (step B12). In this case, since the mobile terminal device 300 does not actually exist on the display device 200 (NO in step B12), the process returns to step A1 in FIG.

いま、図9(1)に示すように、表示デバイス200上に携帯端末装置300が置かれたときには(ステップB1でYES)、その携帯端末装置300から発信出力されている端末IDを受信する(ステップB3)。そして、受信した端末IDに基づいて出力情報メモリM3の「端末識別情報」を検索して、この端末IDが登録されていないかを調べる(ステップB4)。この場合、登録されていないので(ステップB4でNO)、ステップB1に戻る。その後、表示デバイス200上に携帯端末装置300が実在していることが検出されるので(図12のステップB12でYES)、ステップB13に移り、表示デバイス200から指示操作有り信号を受信したかを調べる。   As shown in FIG. 9A, when the mobile terminal device 300 is placed on the display device 200 (YES in step B1), the terminal ID transmitted from the mobile terminal device 300 is received ( Step B3). Then, “terminal identification information” in the output information memory M3 is searched based on the received terminal ID to check whether this terminal ID is registered (step B4). In this case, since it is not registered (NO in step B4), the process returns to step B1. Thereafter, since it is detected that the mobile terminal device 300 actually exists on the display device 200 (YES in step B12 in FIG. 12), the process proceeds to step B13, and whether or not the instruction operation presence signal has been received from the display device 200 is determined. Investigate.

ここで、表示デバイス200上で指示操作が行われなければ、つまり、指示操作有り信号を受信しなければ(ステップB13でNO)、図11のステップB1に戻るが、図9(2)に示すように、表示デバイス200上で指示操作が行われた場合には、つまり、表示デバイス200から指示操作有り信号を受信した場合には(ステップB13でYES)、ステップB14に移り、携帯端末装置300から発信出力されている端末IDを受信して端末識別情報を生成する(ステップB14)。そして、表示デバイス200から指示軌跡を受信し(ステップB15)、この端末IDと指示軌跡(手書き入力情報)を、出力情報メモリM3の「端末識別情報」、「表示情報」に登録する(ステップB15)。その後、図11のステップB1に戻る。   Here, if an instruction operation is not performed on the display device 200, that is, if an instruction operation presence signal is not received (NO in step B13), the process returns to step B1 in FIG. 11, but is shown in FIG. 9 (2). As described above, when an instruction operation is performed on the display device 200, that is, when an instruction operation presence signal is received from the display device 200 (YES in step B13), the process proceeds to step B14, and the mobile terminal device 300 The terminal ID transmitted and output from the terminal ID is received and terminal identification information is generated (step B14). Then, the instruction locus is received from the display device 200 (step B15), and the terminal ID and the instruction locus (handwritten input information) are registered in “terminal identification information” and “display information” in the output information memory M3 (step B15). ). Then, it returns to step B1 of FIG.

このようにして手書き入力情報が登録された後、その携帯端末装置300が表示デバイス200から離れたものとすると、上述のステップB2でそのことが検出されて、次のステップB9に移り、出力情報メモリM3を参照し、その携帯端末装置300に対応する「出力中フラグ」がオンされているかを調べるが、この場合、「出力中フラグ」はオンされていないので(ステップB9でNO)、上述のステップB1に戻る。   After the handwritten input information is registered in this manner, if the mobile terminal device 300 is separated from the display device 200, this is detected in the above-described step B2, and the process proceeds to the next step B9 to output information. With reference to the memory M3, it is checked whether the “output flag” corresponding to the mobile terminal device 300 is turned on. In this case, the “output flag” is not turned on (NO in step B9). Return to step B1.

その後、図9(3)に示すように、その携帯端末装置300が再び表示デバイス200上に置かれたものとすると(ステップB1でYES)、ノート型PC100は、次のステップB3で受信した端末IDは、出力情報メモリM3に登録されているので(ステップB4でYES)、表示デバイス200に対して端末位置の検出を要求する(ステップB5)。この端末位置の検出要求を受け取った表示デバイス200は、携帯端末装置300の接触状態に基づいて携帯端末装置300が置かれた接触位置(携帯端末装置300の実在位置)を検出するが、その際、表示デバイス200内においてその基準点(例えば、左上角部)を起点として、携帯端末装置300の接触面の中心部又は一角部を携帯端末装置300が実在している位置(平面座標系の位置)を検出する。   Thereafter, as shown in FIG. 9 (3), when the portable terminal device 300 is again placed on the display device 200 (YES in step B1), the notebook PC 100 receives the terminal received in the next step B3. Since the ID is registered in the output information memory M3 (YES in step B4), it requests the display device 200 to detect the terminal position (step B5). Upon receiving this terminal position detection request, the display device 200 detects the contact position (the actual position of the mobile terminal device 300) where the mobile terminal device 300 is placed based on the contact state of the mobile terminal device 300. The position where the mobile terminal device 300 actually exists at the center or one corner of the contact surface of the mobile terminal device 300, starting from the reference point (for example, the upper left corner) in the display device 200 (the position of the plane coordinate system) ) Is detected.

ノート型PC100は、表示デバイス200側で検出された端末位置を受信すると(ステップB6)、出力情報メモリM3からその端末の「表示情報(手書き入力情報)」を読み出し(ステップB7)、受信した端末の実在位置と共に手書き入力情報を、表示デバイス200に送信して、携帯端末装置300の近傍位置に表示すべきことを指示し、その端末IDに対応する「出力中フラグ」をオンする(ステップB8)。これによって表示デバイス200側では、図9(4)に示すように携帯端末装置300の近傍位置に手書き入力情報を表示させる。この場合、上述したように手書き入力情報“A”に続けて“ランク”の文字列を付加表示される。   When the notebook PC 100 receives the terminal position detected on the display device 200 side (step B6), it reads “display information (handwritten input information)” of the terminal from the output information memory M3 (step B7), and receives the received terminal. The handwritten input information is transmitted to the display device 200 together with the actual position of the mobile terminal device to instruct that it should be displayed in the vicinity of the mobile terminal device 300, and the “output flag” corresponding to the terminal ID is turned on (step B8). ). As a result, on the display device 200 side, handwritten input information is displayed in the vicinity of the portable terminal device 300 as shown in FIG. In this case, as described above, the character string “rank” is additionally displayed after the handwritten input information “A”.

その後、携帯端末装置300が表示デバイス200上から離されると、ステップB2でそのことが検出されてステップB9に移るが、この場合、「出力中フラグ」はオンされているので(ステップB9でYES)、次のステップB10に移り、その近傍表示の終了を表示デバイス200に対して指示する。これによって表示デバイス200上の近傍表示が消去される、その後、「出力中フラグ」をオフ(ステップB11)した後、ステップB1に戻る。   Thereafter, when the mobile terminal device 300 is separated from the display device 200, this is detected in step B2, and the process proceeds to step B9. In this case, since the “output flag” is turned on (YES in step B9) ), The process proceeds to the next step B10, and the display device 200 is instructed to end the vicinity display. As a result, the near display on the display device 200 is erased. Thereafter, the “output flag” is turned off (step B11), and then the process returns to step B1.

以上のように、第2実施形態における情報出力制御装置(ノート型PC)100は、外部の所定エリア(表示デバイス200)内に出力対象物(携帯端末装置300)が置かれている間に入力された情報(手書き入力情報)をその携帯端末装置300に対応付けて記憶する出力情報メモリM3を備え、再びその携帯端末装置300が表示デバイス200内に置かれた場合にその携帯端末装置300に対応付けて記憶されている手書き入力情報を出力情報メモリM3から読み出して再現出力するようにしたので、携帯端末装置300とそれが置かれる表示デバイス200との関連付けで入力された手書き情報をその関連付けを条件として再現出力することができる。   As described above, the information output control device (notebook PC) 100 according to the second embodiment is input while the output object (mobile terminal device 300) is placed in the predetermined external area (display device 200). Output information memory M3 that stores the information (handwritten input information) associated with the portable terminal device 300 and stores the portable terminal device 300 in the display device 200 again when the portable terminal device 300 is placed in the display device 200. Since the handwritten input information stored in association with each other is read from the output information memory M3 and reproduced and output, the handwritten information input in association with the mobile terminal device 300 and the display device 200 on which the portable terminal device 300 is placed is associated therewith. Can be reproduced and output as a condition.

ノート型PC100は、表示デバイス200上における携帯端末装置300の実在位置を受信取得すると、この実在位置に基づいて、表示デバイス200上で再現出力する位置を決定し、この決定した出力位置で再現出力を行うようにしたので、表示デバイス200上の任意の位置に携帯端末装置300が置かれても、その携帯端末装置300の位置での再現出力が可能となる。   When the notebook PC 100 receives and acquires the actual position of the mobile terminal device 300 on the display device 200, the notebook PC 100 determines a position to be reproduced and output on the display device 200 based on the actual position, and reproduces and outputs at the determined output position. Therefore, even if the mobile terminal device 300 is placed at an arbitrary position on the display device 200, reproduction output at the position of the mobile terminal device 300 is possible.

なお、上述した第2実施形態においては、表示デバイス(タッチスクリーン)200上での手書き入力情報を出力情報メモリM3に登録するようにしたが、指やペンの動きを撮影した画像を解析してその指示軌跡から手書き情報を生成して出力情報メモリM3に登録するようにしてもよい。   In the second embodiment described above, handwritten input information on the display device (touch screen) 200 is registered in the output information memory M3. However, an image obtained by photographing the movement of the finger or pen is analyzed. Handwritten information may be generated from the instruction locus and registered in the output information memory M3.

上述した第2実施形態においては、出力対象物として、携帯端末装置300を例示したが、例えば、タッチスクリーンやその他の表示デバイス、又は雑誌やノート、置物や装飾具、紙片などの単なる物体であってもよい。   In the second embodiment described above, the mobile terminal device 300 is illustrated as an output target. However, for example, it is a mere object such as a touch screen or other display device, a magazine, a notebook, a figurine, a decoration, or a piece of paper. May be.

上述した第2実施形態においては、表示デバイス200をタッチスクリーンとすることで、何らかの物体が置かれた場合にその接触状態の形状及び大きさから携帯端末装置300が置かれたか否かを検出したり、その携帯端末装置300の実在位置を検出したりするようにしたが、表示デバイス200などを撮影した画像を解析することにより携帯端末装置300が置かれたか否かを検出したり、その携帯端末装置300の実在位置を検出したりするようにしてもよい。又は、机の所定位置に複数(例えば、3個又は4個)の近距離通信部(例えば、Bluetooth(登録商標)通信部、RFタグ通信部)を配置し、出力対象物から発信された電波が各通信部で受信されると、情報出力制御装置は、各通信部からその受信信号を取得して、その電波強度と三角測量法の計算から出力対象物の実在位置を検出するようにしてもよい。   In the second embodiment described above, the display device 200 is a touch screen, and when any object is placed, it is detected whether or not the mobile terminal device 300 is placed from the shape and size of the contact state. Or the actual position of the mobile terminal device 300 is detected, but it is detected whether the mobile terminal device 300 is placed by analyzing an image obtained by photographing the display device 200 or the like. The actual position of the terminal device 300 may be detected. Alternatively, a plurality of (for example, three or four) short-range communication units (for example, Bluetooth (registered trademark) communication unit, RF tag communication unit) are arranged at predetermined positions on a desk, and radio waves transmitted from an output object Is received by each communication unit, the information output control device acquires the received signal from each communication unit and detects the actual position of the output object from the radio field intensity and triangulation calculation. Also good.

上述した各実施形態においては、情報出力制御装置としてプロジェクタ装置やノート型PCに適用した場合を示したが、これに限らず、例えば、PDA(個人向け携帯型情報通信機器)・タブレット端末装置・スマートフォンなどの携帯電話機・電子ゲームなどであってもよい。   In each of the above-described embodiments, the case where the information output control device is applied to a projector device or a notebook PC has been described. However, the present invention is not limited to this, and for example, a PDA (personal portable information communication device), a tablet terminal device, It may be a mobile phone such as a smartphone or an electronic game.

また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
情報を出力する情報出力制御装置であって、
入力された情報を取得する入力情報取得手段と、
当該制御装置の外部の所定エリア内に置かれた所定の出力対象物を特定する特定手段と、
前記特定手段によって特定された出力対象物が前記所定エリア内に実在している間に前記入力情報取得手段によって取得された入力情報をその出力対象物に対応付けて記憶する情報記憶手段と、
前記所定エリア内に前記出力対象物が再び置かれた場合にその出力対象物に対応付けて記憶されている入力情報を前記情報記憶手段から読み出して再現出力する出力制御手段と、
を備えることを特徴とする。
(請求項2)
請求項2に記載の発明は、請求項1に記載の情報出力制御装置において、
前記出力制御手段は、前記特定手段によって前記所定エリア内に前記出力対象物が実在していることを特定することができなくなった場合に、前記再現出力を終了させる制御を行う、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項1又は2に記載の情報出力制御装置において、
前記入力情報取得手段によって取得された入力情報が、前記所定エリア内の前記出力対象物を基準として、どの方向又は位置に入力されたかを判別する判別手段を更に備え、
前記情報記憶手段は、前記判別手段によって判別された結果を入力元を示す情報としてその出力対象物に対応付けて記憶し、
前記出力制御手段は、前記入力元を示す情報に基づいて、前記再現出力する方向又は位置を決定し、この決定した方向又は位置を出力先として再現出力を行う、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項3に記載の情報出力制御装置において、
前記出力制御手段は、前記入力元を示す情報に基づいて出力先を決定する場合に、その入力方向又は位置に対して同じ方向又は位置、逆の方向又は位置、任意に設定された方向又は位置のいずれかを出力先として決定する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項1又は2に記載の情報出力制御装置において、
前記所定エリア内における前記出力対象物の実在位置を取得する位置取得手段を更に備え、
前記出力制御手段は、前記位置取得手段によって取得された出力対象物の実在位置に基づいて、前記再現出力する位置を決定し、この決定した出力位置で再現出力を行う、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項1乃至5のいずれか1項に記載の情報出力制御装置において、
前記出力対象物を識別する識別情報を生成する識別情報生成手段を更に備え、
前記情報記憶手段は、前記識別情報生成手段によって生成された識別情報と前記入力手段によって入力された情報を対応付けて記憶し、
前記特定手段は、前記所定のエリア内に実在している前記出力対象物からその識別情報を特定し、
前記出力制御手段は、前記特定手段によって特定された識別情報に対応付けられている情報を前記表示情報記憶手段から読み出して再現出力する、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、
情報を出力する情報出力制御装置のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
前記情報を入力する入力手段と、
当該制御装置の外部の所定エリア内に置かれた所定の出力対象物を特定する特定手段と、
前記特定手段によって特定された出力対象物が前記所定エリア内に実在している間に前記入力手段によって入力された情報をその出力対象物に対応付けて記憶する情報記憶手段と、
前記所定エリア内に前記出力対象物が再び置かれた場合にその出力対象物に対応付けて記憶されている入力情報を前記情報記憶手段から読み出して再現出力する出力制御手段と、
として機能させるためのプログラム。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
An information output control device that outputs information,
Input information acquisition means for acquiring input information;
A specifying means for specifying a predetermined output object placed in a predetermined area outside the control device;
Information storage means for storing the input information acquired by the input information acquisition means in association with the output object while the output object specified by the specification means actually exists in the predetermined area;
Output control means for reading out and reproducing the input information stored in association with the output object when the output object is placed again in the predetermined area;
It is characterized by providing.
(Claim 2)
The invention described in claim 2 is the information output control device according to claim 1,
The output control means performs a control to end the reproduction output when the specifying means cannot specify that the output object actually exists in the predetermined area.
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the information output control device according to claim 1 or 2,
A determination means for determining in which direction or position the input information acquired by the input information acquisition means is input with reference to the output object in the predetermined area;
The information storage means stores the result determined by the determination means in association with the output object as information indicating the input source,
The output control means determines the direction or position for the reproduction output based on the information indicating the input source, and performs the reproduction output using the determined direction or position as the output destination.
It is characterized by that.
(Claim 4)
The invention according to claim 4 is the information output control device according to claim 3,
When the output control means determines the output destination based on the information indicating the input source, the same direction or position, the opposite direction or position, the arbitrarily set direction or position with respect to the input direction or position One of the output destinations,
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the information output control device according to claim 1 or 2,
A position acquisition means for acquiring an actual position of the output object in the predetermined area;
The output control means determines the position to be reproduced based on the actual position of the output object acquired by the position acquisition means, and performs reproduction output at the determined output position.
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the information output control device according to any one of claims 1 to 5,
An identification information generating means for generating identification information for identifying the output object;
The information storage means stores the identification information generated by the identification information generation means in association with the information input by the input means,
The specifying means specifies the identification information from the output object existing in the predetermined area,
The output control means reads out the information associated with the identification information specified by the specifying means from the display information storage means and reproduces and outputs the information;
It is characterized by that.
(Claim 7)
The invention described in claim 7
A program for controlling a computer of an information output control device for outputting information,
The computer,
An input means for inputting the information;
A specifying means for specifying a predetermined output object placed in a predetermined area outside the control device;
Information storage means for storing the information input by the input means while the output object specified by the specifying means is actually present in the predetermined area;
Output control means for reading out and reproducing the input information stored in association with the output object when the output object is placed again in the predetermined area;
Program to function as.

1 情報出力制御装置(プロジェクタ装置)
2 電子ペーパ
3 投影可能エリア
5 マイク
6 スピーカ
11、101 CPU
12、102 記憶部
16 カメラ部
17 プロジェクタ部
M1 プログラムメモリ
M3 表示情報メモリ
100 情報出力制御装置(ノート型PC)
107 短距離通信部
200 表示デバイス
300 携帯端末装置
1 Information output control device (projector device)
2 Electronic paper 3 Projectable area 5 Microphone 6 Speaker 11, 101 CPU
DESCRIPTION OF SYMBOLS 12, 102 Memory | storage part 16 Camera part 17 Projector part M1 Program memory M3 Display information memory 100 Information output control apparatus (notebook type PC)
107 short-range communication unit 200 display device 300 portable terminal device

Claims (7)

情報を出力する情報出力制御装置であって、
入力された情報を取得する入力情報取得手段と、
当該制御装置の外部の所定エリア内に置かれた所定の出力対象物を特定する特定手段と、
前記特定手段によって特定された出力対象物が前記所定エリア内に実在している間に前記入力情報取得手段によって取得された入力情報をその出力対象物に対応付けて記憶する情報記憶手段と、
前記所定エリア内に前記出力対象物が再び置かれた場合にその出力対象物に対応付けて記憶されている入力情報を前記情報記憶手段から読み出して再現出力する出力制御手段と、
を備えることを特徴とする情報出力制御装置。
An information output control device that outputs information,
Input information acquisition means for acquiring input information;
A specifying means for specifying a predetermined output object placed in a predetermined area outside the control device;
Information storage means for storing the input information acquired by the input information acquisition means in association with the output object while the output object specified by the specification means actually exists in the predetermined area;
Output control means for reading out and reproducing the input information stored in association with the output object when the output object is placed again in the predetermined area;
An information output control device comprising:
前記出力制御手段は、前記特定手段によって前記所定エリア内に前記出力対象物が実在していることを特定することができなくなった場合に、前記再現出力を終了させる制御を行う、
ことを特徴とする請求項1に記載の情報出力制御装置。
The output control means performs a control to end the reproduction output when the specifying means cannot specify that the output object actually exists in the predetermined area.
The information output control device according to claim 1.
前記入力情報取得手段によって取得された入力情報が、前記所定エリア内の前記出力対象物を基準として、どの方向又は位置に入力されたかを判別する判別手段を更に備え、
前記情報記憶手段は、前記判別手段によって判別された結果を入力元を示す情報としてその出力対象物に対応付けて記憶し、
前記出力制御手段は、前記入力元を示す情報に基づいて、前記再現出力する方向又は位置を決定し、この決定した方向又は位置を出力先として再現出力を行う、
ことを特徴とする請求項1又は2に記載の情報出力制御装置。
A determination means for determining in which direction or position the input information acquired by the input information acquisition means is input with reference to the output object in the predetermined area;
The information storage means stores the result determined by the determination means in association with the output object as information indicating the input source,
The output control means determines the direction or position for the reproduction output based on the information indicating the input source, and performs the reproduction output using the determined direction or position as the output destination.
The information output control device according to claim 1, wherein the information output control device is an information output control device.
前記出力制御手段は、前記入力元を示す情報に基づいて出力先を決定する場合に、その入力方向又は位置に対して同じ方向又は位置、逆の方向又は位置、任意に設定された方向又は位置のいずれかを出力先として決定する、
ことを特徴とする請求項3に記載の情報出力制御装置。
When the output control means determines the output destination based on the information indicating the input source, the same direction or position, the opposite direction or position, the arbitrarily set direction or position with respect to the input direction or position One of the output destinations,
The information output control apparatus according to claim 3.
前記所定エリア内における前記出力対象物の実在位置を取得する位置取得手段を更に備え、
前記出力制御手段は、前記位置取得手段によって取得された出力対象物の実在位置に基づいて、前記再現出力する位置を決定し、この決定した出力位置で再現出力を行う、
ことを特徴とする請求項1又は2に記載の情報出力制御装置。
A position acquisition means for acquiring an actual position of the output object in the predetermined area;
The output control means determines the position to be reproduced based on the actual position of the output object acquired by the position acquisition means, and performs reproduction output at the determined output position.
The information output control device according to claim 1, wherein the information output control device is an information output control device.
前記出力対象物を識別する識別情報を生成する識別情報生成手段を更に備え、
前記情報記憶手段は、前記識別情報生成手段によって生成された識別情報と前記入力手段によって入力された情報を対応付けて記憶し、
前記特定手段は、前記所定のエリア内に実在している前記出力対象物からその識別情報を特定し、
前記出力制御手段は、前記特定手段によって特定された識別情報に対応付けられている情報を前記表示情報記憶手段から読み出して再現出力する、
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報出力制御装置。
An identification information generating means for generating identification information for identifying the output object;
The information storage means stores the identification information generated by the identification information generation means in association with the information input by the input means,
The specifying means specifies the identification information from the output object existing in the predetermined area,
The output control means reads out the information associated with the identification information specified by the specifying means from the display information storage means and reproduces and outputs the information;
The information output control device according to claim 1, wherein the information output control device is an information output control device.
情報を出力する情報出力制御装置のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
前記情報を入力する入力手段と、
当該制御装置の外部の所定エリア内に置かれた所定の出力対象物を特定する特定手段と、
前記特定手段によって特定された出力対象物が前記所定エリア内に実在している間に前記入力手段によって入力された情報をその出力対象物に対応付けて記憶する情報記憶手段と、
前記所定エリア内に前記出力対象物が再び置かれた場合にその出力対象物に対応付けて記憶されている入力情報を前記情報記憶手段から読み出して再現出力する出力制御手段と、
として機能させるためのプログラム。
A program for controlling a computer of an information output control device for outputting information,
The computer,
An input means for inputting the information;
A specifying means for specifying a predetermined output object placed in a predetermined area outside the control device;
Information storage means for storing the information input by the input means while the output object specified by the specifying means is actually present in the predetermined area;
Output control means for reading out and reproducing the input information stored in association with the output object when the output object is placed again in the predetermined area;
Program to function as.
JP2014249741A 2014-12-10 2014-12-10 Information output control device and program Active JP6312045B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014249741A JP6312045B2 (en) 2014-12-10 2014-12-10 Information output control device and program
US14/864,024 US20160173840A1 (en) 2014-12-10 2015-09-24 Information output control device
CN201510907531.3A CN105700803B (en) 2014-12-10 2015-12-10 Information output-controlling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014249741A JP6312045B2 (en) 2014-12-10 2014-12-10 Information output control device and program

Publications (2)

Publication Number Publication Date
JP2016110550A true JP2016110550A (en) 2016-06-20
JP6312045B2 JP6312045B2 (en) 2018-04-18

Family

ID=56124390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014249741A Active JP6312045B2 (en) 2014-12-10 2014-12-10 Information output control device and program

Country Status (1)

Country Link
JP (1) JP6312045B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021111871A1 (en) * 2019-12-02 2021-06-10 ソニーグループ株式会社 Information processing device and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processor
US20030058227A1 (en) * 2001-09-05 2003-03-27 Matsushita Electric Industrial Co., Ltd. Electronic whiteboard system
JP2011043545A (en) * 2009-08-19 2011-03-03 Brother Industries Ltd Image display device
JP2014215752A (en) * 2013-04-24 2014-11-17 株式会社東芝 Electronic equipment and method for processing handwritten data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processor
US20030058227A1 (en) * 2001-09-05 2003-03-27 Matsushita Electric Industrial Co., Ltd. Electronic whiteboard system
JP2011043545A (en) * 2009-08-19 2011-03-03 Brother Industries Ltd Image display device
JP2014215752A (en) * 2013-04-24 2014-11-17 株式会社東芝 Electronic equipment and method for processing handwritten data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021111871A1 (en) * 2019-12-02 2021-06-10 ソニーグループ株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JP6312045B2 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
US20160173840A1 (en) Information output control device
EP3341851B1 (en) Gesture based annotations
US11288031B2 (en) Information processing apparatus, information processing method, and information processing system
WO2017012269A1 (en) Method and apparatus for determining spatial parameter by using image, and terminal device
US8941752B2 (en) Determining a location using an image
US20170061609A1 (en) Display apparatus and control method thereof
CN111192005B (en) Government affair service processing method and device, computer equipment and readable storage medium
KR20140057086A (en) Method and device for providing information regarding the object
KR20160048708A (en) Recognition method and apparatus for communication message
CN111737547A (en) Merchant information acquisition system, method, device, equipment and storage medium
CN108922531B (en) Slot position identification method and device, electronic equipment and storage medium
CN105068976A (en) Ticket information exhibition method and device
US10429939B2 (en) Apparatus for projecting image and method for operating same
US20210133363A1 (en) Display apparatus, display method, and image processing system
KR20200068391A (en) Electronic device for generating video comprising character and method thereof
JP6312045B2 (en) Information output control device and program
CN112416486A (en) Information guiding method, device, terminal and storage medium
KR20140131087A (en) Method for providing education contents, system and apparatus thereof
JP6358069B2 (en) Information output control device and program
CN114282494A (en) Information display method and device, electronic equipment and storage medium
JP6312044B2 (en) Information display control device and program
CN111182344B (en) Display interface control method and device, electronic equipment and medium
WO2023139630A1 (en) Output control system, output control method, and recording medium
CN110807486B (en) Method and device for generating category label, electronic equipment and storage medium
JP2019040468A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180226

R150 Certificate of patent or registration of utility model

Ref document number: 6312045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180311