JP2010261989A - Image processing device, display history confirmation support method, and computer program - Google Patents

Image processing device, display history confirmation support method, and computer program Download PDF

Info

Publication number
JP2010261989A
JP2010261989A JP2009110327A JP2009110327A JP2010261989A JP 2010261989 A JP2010261989 A JP 2010261989A JP 2009110327 A JP2009110327 A JP 2009110327A JP 2009110327 A JP2009110327 A JP 2009110327A JP 2010261989 A JP2010261989 A JP 2010261989A
Authority
JP
Japan
Prior art keywords
pointer
image
display
displayed
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009110327A
Other languages
Japanese (ja)
Inventor
Nobuo Kamei
伸雄 亀井
Tomoyuki Okamoto
知幸 岡本
Koji Takeuchi
康二 竹内
Satoshi Tsuboi
智 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2009110327A priority Critical patent/JP2010261989A/en
Publication of JP2010261989A publication Critical patent/JP2010261989A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow participants to confirm content of main points in presentation and the like more easily in comparison with a conventional way. <P>SOLUTION: An image forming apparatus 1 includes a pointer position discrimination part 105 and a document screen display processing part 108. The pointer position discrimination part 105 detects a pointer placed over a document displayed on a screen by a projector and the position of the pointer in the document. The document screen display processing part 108 displays options for selecting the position of the detected pointer on a touch panel, and each time when a selection is made among the options, displays the document, for which the pointer is detected in the position pointed by an icon, on the touch panel while placing the icon so that it points the position of the pointer relating to the selected option. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、書類などの画像をプロジェクタなどに提供する技術に関する。   The present invention relates to a technique for providing an image such as a document to a projector or the like.

近年、コピー、ネットワークプリンティング、スキャン、ファックス、およびファイルサーバなどの様々な機能を備えた画像形成装置が普及している。このような画像形成装置は、「MFP(Multi Function Peripherals)」または「複合機」などと呼ばれることもある。画像形成装置は、企業、役所、または教育機関など様々な組織に設置され使用される。   In recent years, image forming apparatuses having various functions such as copying, network printing, scanning, faxing, and file servers have become widespread. Such an image forming apparatus is sometimes called an “MFP (Multi Function Peripherals)” or “multifunction machine”. Image forming apparatuses are installed and used in various organizations such as companies, government offices, and educational institutions.

また、パーソナルコンピュータで表示される画面をスクリーンなどに投影する機能を備えたプロジェクタが普及している。近年、プロジェクタには、JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)、またはTIFF(Tagged Image File Format)などのフォーマットの画像データを使用して画像を出力する機能が備わるようになった。これにより、パーソナルコンピュータがなくても画像を投影できるようになった。   In addition, projectors having a function of projecting a screen displayed on a personal computer onto a screen or the like have become widespread. In recent years, projectors have a function to output an image using image data in a format such as JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format), or TIFF (Tagged Image File Format). . As a result, an image can be projected without a personal computer.

上記の画像形成装置およびプロジェクタを用いれば、画像形成装置で管理されている画像データをプロジェクタへ配信し、プロジェクタによってスクリーンに画像を表示することができる。特に、会議室に備えられているプロジェクタへ画像データを送信すれば、プレゼンテーションなどの資料として画像を容易に出席者に見せることができ、進行役は、プレゼンテーションなどを行いやすい。   If the image forming apparatus and the projector described above are used, the image data managed by the image forming apparatus can be distributed to the projector, and the image can be displayed on the screen by the projector. In particular, if image data is transmitted to a projector provided in a conference room, an image can be easily shown to attendees as materials for presentations, and facilitators can easily make presentations.

また、スクリーンに表示される画像つまり資料の特定の部分を指し棒またはレーザポインタを使って指し示すことによって、出席者の、プレゼンテーションの内容に対する理解を促進することができる。   In addition, by pointing a specific portion of an image displayed on the screen, that is, a material using a pointing stick or a laser pointer, attendees can be promoted to understand the content of the presentation.

特許文献1〜4には、プレゼンテーションなどのための画像を取り扱うシステムおよび装置が開示されている。   Patent Documents 1 to 4 disclose systems and apparatuses that handle images for presentations and the like.

特許文献1に記載されるプレゼンテーションシステムは、ノートPCから出力したプレゼンテーション用画像データをプロジェクタによりスクリーンに投影表示させた状態で、カメラ部により撮影された投影範囲の画像データからプレゼン画像上でのレーザポインタによるポインタ照射位置を検出する。そして、ポインタ照射位置に対応するプレゼン画像上のテキスト部分やイメージ部分をポインタ指示すべき目標部分として抽出し、この目標部分にピッタリと沿わせたアンダーライン画像を合成して投影表示させたり、該目標部分を囲む囲みライン画像QCを合成して投影表示させたりする。   In the presentation system described in Patent Document 1, a presentation image data output from a notebook PC is projected onto a screen by a projector, and a laser on a presentation image is obtained from image data in a projection range photographed by a camera unit. The pointer irradiation position by the pointer is detected. Then, a text portion or an image portion on the presentation image corresponding to the pointer irradiation position is extracted as a target portion to be pointed by the pointer, and an underline image perfectly aligned with the target portion is combined and projected and displayed. The surrounding line image QC surrounding the target portion is synthesized and projected and displayed.

特許文献2に記載される投影装置は、投影中にスクリーンを撮像部により撮像する。画像認識部により、撮像した画像からレーザーポインターにより指定された部分の位置情報を取得する。また、文字認識部において、撮像した画像について指定部分に存在する文字を認識し、その文字サイズを取得する。制御部によって、投影中の画像のサイズ(縦横方向の画素サイズ)に対する相対的な比率が、予め決められている適切な比率となるような拡大倍率を演算し、投影倍率を演算した拡大倍率に変更する。レーザーポインターにより任意の部分を指定するだけで、指定された部分が、その部分に存在する文字が見やすい大きさに拡大された状態で投影される。   The projection apparatus described in Patent Literature 2 images a screen by an imaging unit during projection. The position information of the part designated by the laser pointer is acquired from the captured image by the image recognition unit. Further, the character recognition unit recognizes a character existing in the designated portion of the captured image, and acquires the character size. The control unit calculates an enlargement magnification such that the relative ratio to the size of the image being projected (pixel size in the vertical and horizontal directions) is an appropriate ratio determined in advance, and the projection magnification is calculated as an enlargement magnification. change. Just by designating an arbitrary part with the laser pointer, the designated part is projected in a state where characters existing in the part are enlarged to be easily seen.

特許文献3に記載されるプレゼンテーション用データ処理装置は、分配器と、表示データをスクリーンに表示する表示手段と、スクリーンの表示画像を撮影する第1の撮影手段と、プレゼンターを撮影する第2の撮影手段と、表示データ取り込み手段と、表示画像内において表示部分抽出手段と、表示部分の座標系を設定する座標系設定手段と、指示箇所の座標位置を算出する指示箇所座標算出手段と、表示データ内に指示箇所を合成するプレゼンテーション用データ合成手段と、プレゼンターの画像とプレゼンテーション用データの合成画像を一画面に合成する画面合成手段とを有している。   The presentation data processing apparatus described in Patent Document 3 includes a distributor, display means for displaying display data on a screen, first photographing means for photographing a display image on the screen, and second means for photographing a presenter. Image capturing means, display data capturing means, display part extracting means in the display image, coordinate system setting means for setting the coordinate system of the display part, indicated location coordinate calculating means for calculating the coordinate position of the indicated location, display It has presentation data synthesis means for synthesizing the designated portion in the data, and screen synthesis means for synthesizing the synthesized image of the presenter image and presentation data on one screen.

特許文献4に記載されるシステムは、画像形式のプレゼンテーション資料を用いて行われたプレゼンテーションの録画画像におけるポインタの位置情報に基づいて、このプレゼンテーション資料に含まれる情報毎の重要度を求め、この重要度に応じてこのプレゼンテーション資料中の各キーワードに対する検索の適合度を設定し、この検索の適合度をプレゼンテーション資料中の情報の検索に利用する検索手段を含むポインタの位置情報を利用する。   The system described in Patent Document 4 obtains the importance for each piece of information included in the presentation material based on the position information of the pointer in the recorded image of the presentation performed using the presentation material in the image format. In accordance with the degree, the search suitability for each keyword in the presentation material is set, and the position information of the pointer including search means for using the search suitability for searching for information in the presentation material is used.

特開2008−27080号公報JP 2008-27080 A 特開2008−170742号公報JP 2008-170742 A 特開2007−233647号公報JP 2007-233647 A 特開2006−228059号公報JP 2006-228059 A

ところで、プレゼンテーションにおいて、資料をすべての部分を使わず飛び飛びで説明が行われることがある。参加者にとって、このような説明で進行したプレゼンテーションの内容を後から思い出すには、どの部分が使われたのかを容易に知ることができると、便利である。   By the way, in the presentation, there are cases where the material is explained without skipping all parts. It is convenient for participants to easily know which part was used in order to recall later the contents of the presentation that progressed in this way.

しかし、従来の技術では、プレゼンテーションでの話者の音声を録音しまたはスクリーンを撮影して録画し、それを再生して確認しなければならない。いわゆる倍速再生で確認したとしても、不便である。   However, in the prior art, the voice of the speaker in the presentation must be recorded or screened and recorded, and then played back and confirmed. Even if it is confirmed by so-called double speed reproduction, it is inconvenient.

本発明は、このような問題点に鑑み、プレゼンテーションなどで要点になった内容を従来よりも簡単に参加者などが確認できるようにすることを、目的とする。   In view of such problems, it is an object of the present invention to make it possible for a participant or the like to more easily check the contents that are important in a presentation or the like than in the past.

本発明の一形態に係る画像処理装置は、第一の表示装置に選択的に表示された画像を確認するための支援を行う画像処理装置であって、前記第一の表示装置によって表示された前記画像に対して指されたポインタおよび当該画像における当該ポインタの位置を検知するポインタ検知手段と、検知された前記ポインタの位置を選択するための選択肢を第二の表示装置に表示させる選択肢表示処理手段と、前記選択肢が選択されるごとに、当該選択された選択肢に係る前記ポインタの位置を指すように目印を配置した状態で、当該位置で前記ポインタが検知された前記画像を前記第二の表示装置に表示させる画像再表示処理手段と、を有する。   An image processing apparatus according to an aspect of the present invention is an image processing apparatus that performs support for confirming an image selectively displayed on a first display device, and is displayed by the first display device. Option display processing for displaying a pointer pointed to the image, pointer detection means for detecting the position of the pointer in the image, and an option for selecting the detected position of the pointer on the second display device And each time the option is selected, the image in which the pointer is detected at the position is displayed in a state where the mark is arranged to indicate the position of the pointer related to the selected option. Image re-display processing means for displaying on the display device.

好ましくは、前記画像再表示処理手段は、前記画像として第一の資料を表示させ、次に前記画像として第二の資料を表示させた後、前記画像として当該第一の資料を再度表示させる場合は、当該第二の資料の存在を伝えるための第二の目印とともに表示する。   Preferably, the image redisplay processing unit displays the first material as the image, and then displays the second material as the image, and then displays the first material again as the image. Is displayed together with a second mark for indicating the existence of the second material.

または、前記画像再表示処理手段は、前記第二の目印が選択されると前記画像として前記第二の資料を表示させる。   Alternatively, the image redisplay processing means displays the second material as the image when the second mark is selected.

または、前記画像を前記第一の表示装置に表示させて行われるプレゼンテーションを録音した音声を記憶する音声記憶手段と、前記目印が選択されたときに、当該目印の位置が前記ポインタによって指された際の音声を再生する音声再生手段と、を有する。   Or, when the mark is selected, the voice storage means for storing the voice recording the presentation performed by displaying the image on the first display device, and the position of the mark is pointed by the pointer Sound reproducing means for reproducing the sound at the time.

または、前記画像再表示処理手段は、前記目印として、当該目印の位置が前記ポインタによって指された際に録音された音声の内容を表すテキストを含む目印を配置する。   Alternatively, the image re-display processing means arranges a mark including text representing the content of sound recorded when the position of the mark is pointed by the pointer.

本発明によると、ユーザは、プレゼンテーションなどで要点になった内容を従来よりも簡単に確認することができる。   According to the present invention, the user can more easily confirm the contents that have become the main points in a presentation or the like.

組織ネットワークシステムの全体的な構成の例を示す図である。It is a figure which shows the example of the whole structure of an organization network system. 画像形成装置のハードウェア構成の例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image forming apparatus. FIG. 操作パネルの例を示す図である。It is a figure which shows the example of an operation panel. 画像形成装置の機能的構成の例を示す図である。2 is a diagram illustrating an example of a functional configuration of an image forming apparatus. FIG. プレゼンテーションシステムの各装置の配置の例を示す図である。It is a figure which shows the example of arrangement | positioning of each apparatus of a presentation system. プロジェクタのハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a projector. プロジェクタの機能的構成の例を示す図である。It is a figure which shows the example of a functional structure of a projector. 表示切換履歴データの例を示す図である。It is a figure which shows the example of display switching log | history data. ポインタ位置判別処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a pointer position determination process. ポインタテーブルの例を示す図である。It is a figure which shows the example of a pointer table. 資料ブラウザ画面の例を示す図である。It is a figure which shows the example of a document browser screen. 資料ブラウザ画面の例を示す図である。It is a figure which shows the example of a document browser screen. 資料ブラウザ画面の例を示す図である。It is a figure which shows the example of a document browser screen. 画像形成装置の全体的な処理の流れの例を説明するフローチャートである。6 is a flowchart illustrating an example of the overall processing flow of the image forming apparatus.

図1は組織ネットワークシステムSYの全体的な構成の例を示す図、図2は画像形成装置1のハードウェア構成の例を示す図、図3は操作パネル10hの例を示す図、図4は画像形成装置1の機能的構成の例を示す図、図5はプレゼンテーションシステム2の各装置の配置の例を示す図、図6はプロジェクタ21のハードウェア構成の例を示す図、図7はプロジェクタ21の機能的構成の例を示す図である。   1 is a diagram illustrating an example of the overall configuration of the organization network system SY, FIG. 2 is a diagram illustrating an example of a hardware configuration of the image forming apparatus 1, FIG. 3 is a diagram illustrating an example of an operation panel 10h, and FIG. 5 is a diagram showing an example of the functional configuration of the image forming apparatus 1, FIG. 5 is a diagram showing an example of the arrangement of each device of the presentation system 2, FIG. 6 is a diagram showing an example of the hardware configuration of the projector 21, and FIG. It is a figure which shows the example of a 21 functional structure.

組織ネットワークシステムSYは、図1に示すように、画像形成装置1、プレゼンテーションシステム2、パーソナルコンピュータ3、および通信回線4などによって構成される。   As shown in FIG. 1, the organization network system SY includes an image forming apparatus 1, a presentation system 2, a personal computer 3, a communication line 4, and the like.

組織ネットワークシステムSYは、企業、役所、または学校などの組織に設けられており、組織のメンバ同士が情報を交換するためなどに用いられる。以下、ある企業に設けられている組織ネットワークシステムSYを例に説明する。   The organization network system SY is provided in an organization such as a company, a government office, or a school, and is used for exchanging information between members of the organization. Hereinafter, an organization network system SY provided in a certain company will be described as an example.

その企業の社員であるユーザは、会議などにおいてプレゼンテーションを行う際に、画像形成装置1に保存されている画像データを後述のプロジェクタ21へ送信し、プロジェクタ21によって画像を投影することができる。さらに、プレゼンテーションの中で行われた説明を録音するなどして進行のログを作成し、プレゼンテーション後に参照することができる。   A user who is an employee of the company can transmit image data stored in the image forming apparatus 1 to a projector 21 (to be described later) and project an image by the projector 21 when giving a presentation at a meeting or the like. Furthermore, it is possible to create a progress log by recording the explanation given in the presentation and to refer to it after the presentation.

画像形成装置1、プレゼンテーションシステム2を構成する各装置(後述するプロジェクタ21、ビデオカメラ22、および録音装置23)、およびパーソナルコンピュータ3は、通信回線4を介して互いに通信を行うことができる。通信回線4として、いわゆるLAN(Local Area Network)回線、公衆回線、またはインターネットなどが用いられる。   The image forming apparatus 1, each apparatus (a projector 21, a video camera 22, and a recording apparatus 23 described later) constituting the presentation system 2, and the personal computer 3 can communicate with each other via the communication line 4. As the communication line 4, a so-called LAN (Local Area Network) line, a public line, the Internet, or the like is used.

画像形成装置1は、一般に複合機またはMFP(Multi Function Peripherals)などと呼ばれる装置であって、コピー、ネットワークプリンティング(PCプリント)、ファックス、スキャナ、ボックス、およびファイル送信などの機能を集約した装置である。   The image forming apparatus 1 is an apparatus generally called a multifunction peripheral or MFP (Multi Function Peripherals), and is an apparatus that integrates functions such as copying, network printing (PC printing), fax, scanner, box, and file transmission. is there.

なお、「ボックス機能」とは、「ボックス」と呼ばれる、パーソナルコンピュータにおけるフォルダまたはディレクトリなどに相当する記憶領域をユーザごとに与えておき、ユーザが自分の記憶領域に画像データなどを保存しておくことができるようにする機能である。   The “box function” is a storage area called a “box” corresponding to a folder or directory in a personal computer for each user, and the user stores image data or the like in his / her storage area. It is a function that allows you to

画像形成装置1は、複数の社員(ユーザ)のデスクが集まったフロアなどに設置されており、複数のユーザによって共用される。   The image forming apparatus 1 is installed on a floor where desks of a plurality of employees (users) gather, and is shared by a plurality of users.

画像形成装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、ハードディスク10d、スキャナ10e、印刷装置10f、ネットワークコントローラ10g、操作パネル10h、モデム10i、および音声再生ユニット10jのほか、制御用回路などによって構成される。   As shown in FIG. 2, the image forming apparatus 1 includes a CPU (Central Processing Unit) 10a, a RAM (Random Access Memory) 10b, a ROM (Read Only Memory) 10c, a hard disk 10d, a scanner 10e, a printing device 10f, and a network controller 10g. In addition to the operation panel 10h, the modem 10i, and the sound reproduction unit 10j, the control panel 10h is used.

スキャナ10eは、原稿の用紙に記されている写真、文書、イラスト、図表などの画像を読み取って画像データを生成する装置である。   The scanner 10e is an apparatus that reads an image such as a photograph, a document, an illustration, a chart, and the like written on an original sheet and generates image data.

印刷装置10fは、スキャナ10eによって読み取られた画像または他の装置から受信した画像データに示される画像を印刷する。   The printing device 10f prints an image read by the scanner 10e or an image indicated by image data received from another device.

操作パネル10hは、図3に示すように、タッチパネル10h1およびキー群10h2などによって構成される。   As shown in FIG. 3, the operation panel 10h includes a touch panel 10h1, a key group 10h2, and the like.

タッチパネル10h1には、ユーザに対するメッセージを与えるための画面、処理の結果を示す画面、またはユーザが画像形成装置1に対して指示を入力するための画面などが表示される。後述する資料ブラウザ画面6(図11参照)も、タッチパネル10h1に表示される。   On the touch panel 10h1, a screen for giving a message to the user, a screen showing a processing result, a screen for the user to input an instruction to the image forming apparatus 1, and the like are displayed. A material browser screen 6 (see FIG. 11) described later is also displayed on the touch panel 10h1.

また、タッチパネル10h1は、タッチされた(押された)位置を検知し、CPU10aにその位置を通知する。   The touch panel 10h1 detects the touched (pressed) position and notifies the CPU 10a of the position.

キー群10h2は、テンキーおよびジョブスタートキーのほか、ファックスおよびスキャンなどの各種の機能のモードに対応する画面に切り換えるためのモード選択キーによって構成される。各モード選択キーには、LED(Light Emitting Diode)が設けられており、タッチパネル10h1に現在表示されている画面に係るモードのモード選択キーのLEDが点灯する。   The key group 10h2 includes a numeric key and a job start key, and mode selection keys for switching to screens corresponding to various function modes such as fax and scan. Each mode selection key is provided with an LED (Light Emitting Diode), and the mode selection key LED of the mode relating to the screen currently displayed on the touch panel 10h1 is lit.

ユーザは、操作パネル10hを操作することによって、画像形成装置1に対して、画像データをプロジェクタ21へ送信するように指示したり、送信すべき画像データを選択したり、進行のログを確認したりすることができる。   The user operates the operation panel 10 h to instruct the image forming apparatus 1 to transmit image data to the projector 21, select image data to be transmitted, and check a progress log. Can be.

ネットワークコントローラ10gは、通信回線4を介してパーソナルコンピュータなどの他の装置と通信を行うためのNIC(Network Interface Card)である。   The network controller 10g is a NIC (Network Interface Card) for communicating with other devices such as a personal computer via the communication line 4.

モデム10iは、固定電話網を介して他のファックス端末との間でG3などのプロトコルで画像データをやり取りするための装置である。   The modem 10i is a device for exchanging image data with other fax terminals using a protocol such as G3 via a fixed telephone network.

音声再生ユニット10jは、サウンドボードおよびスピーカなどからなり、音声データに基づいて音声を再生する。   The audio reproduction unit 10j includes a sound board and a speaker, and reproduces audio based on audio data.

ROM10cまたはハードディスク10dには、図4に示すような資料画像データ保存部101、資料画像データ配信部102、記録開始指令部103、進行実績データ受信部104、ポインタ位置判別部105、進行実績データ保存部106、音声テキスト変換部107、資料画面表示処理部108、および音声再生処理部109などを実現するためのプログラムが記憶されている。これらのプログラムは、必要に応じてRAM10bにロードされ、CPU10aによって実行される。   The ROM 10c or the hard disk 10d stores a document image data storage unit 101, a document image data distribution unit 102, a recording start command unit 103, a progress record data receiving unit 104, a pointer position determination unit 105, and a progress record data storage as shown in FIG. Programs for realizing the unit 106, the voice text conversion unit 107, the material screen display processing unit 108, the voice reproduction processing unit 109, and the like are stored. These programs are loaded into the RAM 10b as necessary and executed by the CPU 10a.

図4に示す各部の機能の全部または一部を回路などのハードウェアのみによって実現してもよい。   All or some of the functions of the units illustrated in FIG. 4 may be realized only by hardware such as a circuit.

図1に戻って、プレゼンテーションシステム2は、プロジェクタ21、ビデオカメラ22、録音装置23、スクリーン24、およびレーザポイント装置25などによって構成される。プレゼンテーションシステム2は、会議室などに備えられており、図5のように、プレゼンテーションの資料を表示したりプレゼンテーションの内容を記録したりするために用いられる。   Returning to FIG. 1, the presentation system 2 includes a projector 21, a video camera 22, a recording device 23, a screen 24, a laser point device 25, and the like. The presentation system 2 is provided in a conference room or the like, and is used to display presentation materials or record the contents of presentations as shown in FIG.

プロジェクタ21は、液晶パネルを用いて、パーソナルコンピュータなどから入力されたRGB(Red Blue Green)の画像信号に基づいた画像をスクリーン24に投影する。プロジェクタ21は、一般に「画像投影装置」または「液晶プロジェクタ」などと呼ばれることもある。なお、プロジェクタ21は、液晶方式以外の方式のプロジェクタであってもよい。スクリーン24は、画像が投影される幕である。   The projector 21 projects an image based on RGB (Red Blue Green) image signals input from a personal computer or the like onto a screen 24 using a liquid crystal panel. The projector 21 may be generally called an “image projector” or a “liquid crystal projector”. The projector 21 may be a projector of a method other than the liquid crystal method. The screen 24 is a curtain on which an image is projected.

また、プロジェクタ21は、JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)、またはTIFF(Tagged Image File Format)などの画像データに基づいて画像を投影することができる。よって、パーソナルコンピュータ3を介することなく画像形成装置1から画像データを直接受信して画像を投影することができる。   The projector 21 can project an image based on image data such as JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format), or TIFF (Tagged Image File Format). Therefore, it is possible to directly receive image data from the image forming apparatus 1 and project an image without using the personal computer 3.

プロジェクタ21は、図6に示すように、CPU21a、RAM21b、ROM21c、補助記憶装置21d、制御用回路21e、操作パネル21f、ネットワークコントローラ21g、および投影ユニット21hなどによって構成される。   As shown in FIG. 6, the projector 21 includes a CPU 21a, a RAM 21b, a ROM 21c, an auxiliary storage device 21d, a control circuit 21e, an operation panel 21f, a network controller 21g, a projection unit 21h, and the like.

補助記憶装置21dは、電源を切ってもその記憶内容が保持される不揮発性の記憶装置である。補助記憶装置21dとして、フラッシュメモリなどの半導体メモリまたはハードディスクなどの磁気記憶装置などが用いられる。   The auxiliary storage device 21d is a non-volatile storage device that retains the stored contents even when the power is turned off. As the auxiliary storage device 21d, a semiconductor memory such as a flash memory or a magnetic storage device such as a hard disk is used.

補助記憶装置21dには、図7に示すような資料画像データ受信部211、資料画像データ保存部212、表示資料指定受付部213、表示ページ指定受付部214、画像表示制御部215、表示履歴記憶部216、および表示履歴通知処理部217などを実現するためのプログラムが記憶されている。これらのプログラムは、必要に応じてRAM21bにロードされCPU21aによって実行される。   The auxiliary storage device 21d includes a material image data receiving unit 211, a material image data storage unit 212, a display material designation receiving unit 213, a display page designation receiving unit 214, an image display control unit 215, and a display history storage as shown in FIG. A program for realizing the unit 216, the display history notification processing unit 217, and the like is stored. These programs are loaded into the RAM 21b as necessary and executed by the CPU 21a.

図7に示す各部の機能の全部または一部を回路などのハードウェアのみによって実現してもよい。   All or part of the functions of the units illustrated in FIG. 7 may be realized only by hardware such as a circuit.

制御用回路21eは、補助記憶装置21d、操作パネル21f、ネットワークコントローラ21g、投影ユニット21hなどを制御するための回路である。なお、制御用回路21eの機能の一部または全部をCPU21aに受け持たせるようにしてもよい。   The control circuit 21e is a circuit for controlling the auxiliary storage device 21d, the operation panel 21f, the network controller 21g, the projection unit 21h, and the like. Note that a part or all of the functions of the control circuit 21e may be assigned to the CPU 21a.

操作パネル21fは、ディスプレイおよび種々のキーによって構成される。ディスプレイに表示すべき画面を投影ユニット21hによってスクリーンに表示(投影)するようにしてもよい。この場合は、ディスプレイを設ける必要はない。ユーザは、キーを操作することによって、プロジェクタ21に対して、表示させたい資料およびページを指定することができる。   The operation panel 21f includes a display and various keys. The screen to be displayed on the display may be displayed (projected) on the screen by the projection unit 21h. In this case, it is not necessary to provide a display. The user can designate materials and pages to be displayed on the projector 21 by operating the keys.

ネットワークコントローラ21gは、画像形成装置1およびパーソナルコンピュータ3などとTCP/IPなどのプロトコルによって通信を行うためのNICである。   The network controller 21g is a NIC for communicating with the image forming apparatus 1 and the personal computer 3 using a protocol such as TCP / IP.

投影ユニット21hは、光源からの白色光をR(Red)色成分、G(Green)色成分、およびB(Blue)色成分に分離し、分離された光を液晶パネルに透過させた後に合成し、合成された光を投射レンズに通過させて投影する。CPU21aなどの指令に基づいて液晶パネル内の表示素子が制御されることにより、入力された画像データに基づいた画像がスクリーン24に投影される。   The projection unit 21h separates the white light from the light source into an R (Red) color component, a G (Green) color component, and a B (Blue) color component, and synthesizes the separated light after transmitting the light to the liquid crystal panel. Then, the synthesized light is projected through the projection lens. An image based on the input image data is projected onto the screen 24 by controlling the display elements in the liquid crystal panel based on a command from the CPU 21a or the like.

図1および図5に戻って、レーザポイント装置25は、赤色または緑色などの所定の色のレーザ光を発信する、ペン程度の大きさの装置である。一般に「レーザポインタ」と呼ばれることがある。プレゼンテーションを行うユーザ(以下、「進行役ユーザ」と記載する。)は、プロジェクタ21によってスクリーン24に表示(投影)される資料に対して、レーザポイント装置25からのレーザ光を照射することによって、注目すべき箇所を参加者へ知らせることができる。   1 and 5, the laser point device 25 is a device about the size of a pen that emits laser light of a predetermined color such as red or green. Generally called “laser pointer”. A user giving a presentation (hereinafter referred to as “facilitator user”) irradiates a material displayed (projected) on the screen 24 by the projector 21 by irradiating a laser beam from the laser point device 25. You can let participants know where to pay attention.

ビデオカメラ22は、プレゼンテーションが行われている間、スクリーン24を撮影し、それによって得られた画像データ(以下、「撮影画像データDTS」と記載する。)を画像形成装置1へ送信する。   The video camera 22 shoots the screen 24 during the presentation, and transmits image data (hereinafter referred to as “captured image data DTS”) obtained thereby to the image forming apparatus 1.

録音装置23は、プレゼンテーションが行われている間、進行役ユーザの音声を録音し、それによって得られた音声データ(以下、「録音データDTV」と記載する。)を画像形成装置1へ送信する。録音装置23には、マイクロフォンが設けられており、プレゼンテーションが行われている間、進行役ユーザの近くに置かれてまたは進行役ユーザの胸元に付けられて使用される。   The recording device 23 records the voice of the facilitating user during the presentation, and transmits the voice data obtained thereby (hereinafter referred to as “recording data DTV”) to the image forming apparatus 1. . The recording device 23 is provided with a microphone, and is used by being placed near the facilitator user or attached to the chest of the facilitator user during the presentation.

図1に戻って、パーソナルコンピュータ3は、画像形成装置1、プロジェクタ21、ビデオカメラ22、および録音装置23をそれぞれ制御するためのドライバを有しており、後述するようにこれらの装置を制御するために用いられる。   Returning to FIG. 1, the personal computer 3 has drivers for controlling the image forming apparatus 1, the projector 21, the video camera 22, and the recording apparatus 23, and controls these apparatuses as will be described later. Used for.

パーソナルコンピュータ3として、デスクトップ型のパーソナルコンピュータまたはノートブック型のパーソナルコンピュータなどが用いられる。後者の場合は、進行役ユーザは、会議室に持ち込んでプレゼンテーション中に使用することができる。   As the personal computer 3, a desktop personal computer or a notebook personal computer is used. In the latter case, the facilitating user can bring it into the conference room and use it during the presentation.

図8は表示切換履歴データDTRの例を示す図、図9はポインタ位置判別処理の流れの例を説明するフローチャート、図10はポインタテーブルTL1の例を示す図、図11〜図13は資料ブラウザ画面6の例を示す図である。   8 is a diagram showing an example of the display switching history data DTR, FIG. 9 is a flowchart for explaining an example of the flow of the pointer position determination process, FIG. 10 is a diagram showing an example of the pointer table TL1, and FIGS. It is a figure which shows the example of the screen.

次に、図4に示す画像形成装置1の各部、図6に示すプロジェクタ21の各部、ビデオカメラ22、録音装置23、およびパーソナルコンピュータ3の処理内容などについて、詳細に説明する。   Next, details of each part of the image forming apparatus 1 shown in FIG. 4, each part of the projector 21 shown in FIG. 6, the video camera 22, the recording device 23, and the personal computer 3 will be described in detail.

画像形成装置1において、図4の資料画像データ保存部101は、文書、イラスト、写真、または図表などの画像からなる資料(書類)の画像データ(以下、「資料画像データDTG」と記載する。)をボックスによって記憶し管理する。資料画像データDTGは、後述するように、プレゼンテーションで使用される資料をプロジェクタ21で表示(投影)するために用いられる。資料画像データDTGは、書類の用紙をスキャナ10eでスキャンすることによって生成される。または、インターネット上のWebサーバからダウンロードするなどして取得されることもある。資料画像データDTGのフォーマットとして、JPEG、GIF、またはTIFFなどが用いられる。   In the image forming apparatus 1, the document image data storage unit 101 in FIG. 4 describes image data of a document (document) composed of an image such as a document, an illustration, a photograph, or a chart (hereinafter referred to as “document image data DTG”). ) Is stored and managed by the box. The document image data DTG is used to display (project) the document used in the presentation with the projector 21 as described later. The document image data DTG is generated by scanning the paper of the document with the scanner 10e. Or it may be obtained by downloading from a Web server on the Internet. As the format of the document image data DTG, JPEG, GIF, TIFF, or the like is used.

資料画像データ保存部101は、資料画像データDTGをファイル単位で保存している。資料画像データDTGごとにユニークなファイル名が付されている。ファイル名は、資料の名称(資料名)としても、用いられる。   The document image data storage unit 101 stores document image data DTG in units of files. A unique file name is assigned to each document image data DTG. The file name is also used as the name of the material (material name).

進行役ユーザは、プレゼンテーションで使用する資料をプロジェクタ21に表示させるための準備を、次のようにして行う。進行役ユーザは、画像形成装置1のところへ行き、印刷装置10f(図3参照)を操作して画像形成装置1にログインする。   The facilitator user prepares to display the material used in the presentation on the projector 21 as follows. The facilitator user goes to the image forming apparatus 1 and operates the printing apparatus 10f (see FIG. 3) to log in to the image forming apparatus 1.

使用する資料の資料画像データDTGが既に資料画像データ保存部101のボックスに保存されている場合は、進行役ユーザは、モード選択キーでボックスモードに切り換え、一覧の中からその資料の資料画像データDTGを選択する。   When the material image data DTG of the material to be used is already stored in the box of the material image data storage unit 101, the facilitator user switches to the box mode with the mode selection key, and the material image data of the material from the list. Select DTG.

一方、使用する資料の資料画像データDTGが未だない場合は、進行役ユーザは、スキャンモードに切り換え、資料の用紙を原稿台にセットし、画像形成装置1に資料をスキャンさせる。すると、画像形成装置1は、スキャン機能によって従来通り、資料を読み取って資料画像データDTGを生成し、資料画像データ保存部101の所定のボックスに保存する。   On the other hand, when the document image data DTG of the material to be used is not yet present, the facilitator user switches to the scan mode, sets the material sheet on the document table, and causes the image forming apparatus 1 to scan the material. Then, the image forming apparatus 1 reads the material by the scan function as usual, generates the material image data DTG, and stores it in a predetermined box of the material image data storage unit 101.

そして、進行役ユーザは、ボックスモードに切り換え、一覧の中からその資料の資料画像データDTGを選択する。   Then, the facilitator user switches to the box mode and selects the material image data DTG of the material from the list.

資料画像データ配信部102は、上述の操作によって進行役ユーザが選択した資料画像データDTGを資料画像データ保存部101から読み出し、プロジェクタ21へ配信(送信)する。   The document image data distribution unit 102 reads the document image data DTG selected by the facilitating user by the above operation from the document image data storage unit 101 and distributes (transmits) the document image data to the projector 21.

なお、進行役ユーザは、画像形成装置1を直接操作して資料画像データDTGを選択したが、パーソナルコンピュータ3またはプロジェクタ21を操作して遠隔的に資料画像データDTGを選択してもよい。また、進行役ユーザは、必要に応じて複数の資料画像データDTGをプロジェクタ21へ送信させることができる。   The facilitator user directly operates the image forming apparatus 1 and selects the document image data DTG. However, the facilitator user may operate the personal computer 3 or the projector 21 to select the document image data DTG remotely. Further, the facilitating user can transmit a plurality of document image data DTG to the projector 21 as necessary.

図7に示すプロジェクタ21の資料画像データ受信部211は、画像形成装置1からの資料画像データDTGを受信する。資料画像データ保存部212は、受信された資料画像データDTGを保存する。   A material image data receiving unit 211 of the projector 21 illustrated in FIG. 7 receives the material image data DTG from the image forming apparatus 1. The document image data storage unit 212 stores the received document image data DTG.

進行役ユーザは、プレゼンテーションで使用する資料の資料画像データDTGを準備することができたら会議室へ行く。そして、所定の時刻(以下、「開始時刻T0」と記載する。)になったら、プレゼンテーションを開始する。   The facilitator user goes to the conference room when the material image data DTG of the material used in the presentation can be prepared. When a predetermined time (hereinafter referred to as “start time T0”) is reached, the presentation is started.

記録開始指令部103は、開始時刻T0になったら、プロジェクタ21、ビデオカメラ22、および録音装置23に対して、記録を開始すべき旨の指令を発信する。   The recording start command unit 103 sends a command to start recording to the projector 21, the video camera 22, and the recording device 23 when the start time T0 is reached.

すると、ビデオカメラ22はスクリーン24の撮影を開始し、録音装置23は進行役ユーザの音声の録音を開始する。   Then, the video camera 22 starts photographing the screen 24, and the recording device 23 starts recording the voice of the facilitating user.

進行役ユーザは、資料をプロジェクタ21で表示(投影)させながら、プレゼンテーションを進行することができる。   The facilitator user can advance the presentation while displaying (projecting) the document on the projector 21.

資料を表示させるに当たって、進行役ユーザは、操作パネル21fを操作して、表示させる資料をプロジェクタ21に対して指定する。   In displaying the material, the facilitator user operates the operation panel 21f to designate the material to be displayed to the projector 21.

複数の資料の資料画像データDTGがプロジェクタ21に記憶されている場合は、進行役ユーザは、プレゼンテーションの最中に適宜、表示する資料を変えることができる。この場合も、進行役ユーザは、操作パネル21fを操作し、次に表示させる資料をプロジェクタ21に対して指定すればよい。   When the document image data DTG of a plurality of materials is stored in the projector 21, the facilitator user can change the materials to be displayed as appropriate during the presentation. Also in this case, the facilitator user only has to operate the operation panel 21f and specify the material to be displayed next to the projector 21.

表示資料指定受付部213は、進行役ユーザによる資料の指定を受け付ける。この際に、指定された資料の識別子(例えば、資料の資料画像データDTGのファイル名)および受け付けた時刻を表示履歴記憶部216に記憶させる。   The display material designation receiving unit 213 receives a material designation by the facilitator user. At this time, the identifier of the designated material (for example, the file name of the material image data DTG of the material) and the received time are stored in the display history storage unit 216.

また、資料が複数のページからなる場合は、進行役ユーザは、操作パネル21fを操作して、次に表示するページを指定することができる。   When the document is composed of a plurality of pages, the facilitator user can operate the operation panel 21f and specify the page to be displayed next.

すると、表示ページ指定受付部214は、その指定を受け付ける。この際に、指定されたページの識別子(例えば、ページ番号)および受け付けた時刻を表示履歴記憶部216に記憶させる。   Then, the display page designation receiving unit 214 receives the designation. At this time, the identifier (for example, page number) of the designated page and the received time are stored in the display history storage unit 216.

このようにして、進行役ユーザが資料またはページを指定するごとに、指定の履歴が表示履歴記憶部216に記憶される。例えば、開始時刻T0の5秒後に「メイン資料A」というファイル名の資料が指定され、開始時刻T0の30秒後に2ページ目が指定され、開始時刻T0の2分15秒後に3ページ目が指定され、開始時刻T0の3分30秒後に「参考資料B」というファイル名の資料が指定された場合は、図8のような履歴が表示履歴記憶部216に記憶される。   In this manner, the designated history is stored in the display history storage unit 216 each time the facilitator user designates the material or page. For example, a material with the file name “main material A” is designated 5 seconds after the start time T0, the second page is designated 30 seconds after the start time T0, and the third page is designated 2 minutes 15 seconds after the start time T0. When a material with the file name “reference material B” is designated 3 minutes and 30 seconds after the start time T0, a history as shown in FIG. 8 is stored in the display history storage unit 216.

なお、リモートコントローラ付きのレーザポインタをレーザポイント装置25として使用しプロジェクタ21に無線レシーバが備わっている場合は、進行役ユーザは、レーザポイント装置25に設けられているボタンを操作することによって資料およびページを指定してもよい。表示資料指定受付部213および表示ページ指定受付部214は、それぞれ、レーザポイント装置25からの信号を受信することによって資料の指定およびページの指定を受け付ける。または、ノートブック型のパーソナルコンピュータをパーソナルコンピュータ3として使用しそれを会議室に持ち込んでいる場合は、進行役ユーザは、パーソナルコンピュータ3を使用して資料およびページを指定してもよい。   When a laser pointer with a remote controller is used as the laser point device 25 and the projector 21 is equipped with a wireless receiver, the facilitating user operates a button provided on the laser point device 25 to operate the document and You may specify a page. The display material designation accepting unit 213 and the display page designation accepting unit 214 receive the designation of the material and the designation of the page by receiving a signal from the laser point device 25, respectively. Alternatively, when a notebook personal computer is used as the personal computer 3 and brought into the conference room, the facilitating user may use the personal computer 3 to specify materials and pages.

画像表示制御部215は、表示資料指定受付部213によって資料の指定が受け付けられると、指定された資料の資料画像データDTGを資料画像データ保存部212から読み出し、その資料のデフォルトのページ(例えば、1番目のページ)をスクリーン24に表示(投影)する。   When the designation of the material is accepted by the display material designation accepting unit 213, the image display control unit 215 reads the material image data DTG of the designated material from the material image data storage unit 212, and the default page of the material (for example, (First page) is displayed (projected) on the screen 24.

または、画像表示制御部215は、ある資料のあるページの投影中に表示ページ指定受付部214によって別のページの指定が受け付けられると、指定されたページをスクリーン24へ投影する。   Alternatively, the image display control unit 215 projects the designated page onto the screen 24 when the display page designation receiving unit 214 receives the designation of another page while projecting a certain page of a certain material.

表示履歴通知処理部217は、プレゼンテーションの終了後、表示履歴記憶部216に記憶された履歴を示す表示切換履歴データDTRを画像形成装置1へ送信する。つまり、表示の履歴を画像形成装置1へ通知する。または、プレゼンテーションの終了後に纏めて通知するのではなく、資料またはページが指定されるごとに通知してもよい。   The display history notification processing unit 217 transmits display switching history data DTR indicating the history stored in the display history storage unit 216 to the image forming apparatus 1 after the end of the presentation. That is, the display history is notified to the image forming apparatus 1. Alternatively, notification may be made every time a document or page is designated, instead of collectively giving notification after the presentation ends.

画像形成装置1の進行実績データ受信部104は、プレゼンテーションの進行の実績に関するデータをプロジェクタ21、ビデオカメラ22、および録音装置23から受信する。具体的には、表示切換履歴データDTRをプロジェクタ21から受信し、撮影画像データDTSをビデオカメラ22から受信し、録音データDTVを録音装置23から受信する。   The progress record data receiving unit 104 of the image forming apparatus 1 receives data related to the progress of the presentation from the projector 21, the video camera 22, and the recording device 23. Specifically, the display switching history data DTR is received from the projector 21, the captured image data DTS is received from the video camera 22, and the recording data DTV is received from the recording device 23.

ところで、上述の通り、進行役ユーザは、スクリーン24に表示されている資料に対してレーザポイント装置25のレーザ光を適宜、今話している事項に関連することが記されている部分(箇所、範囲)に当てながら、プレゼンテーションを進行する。したがって、撮影画像データDTSには、資料の映像だけでなくレーザ光のポインタも記録されている。   By the way, as described above, the facilitator user appropriately writes the laser beam of the laser point device 25 on the material displayed on the screen 24 as being related to the matter being spoken (location, Proceed with the presentation. Therefore, the captured image data DTS records not only the video of the material but also the pointer of the laser beam.

ポインタ位置判別部105は、撮影画像データDTSおよび表示切換履歴データDTRに基づいて、レーザ光のポインタがいつどの資料のどのページのどの辺りに当てられたのかを、図9に示すような方法で判別する。   The pointer position discriminating unit 105 uses the method shown in FIG. 9 to indicate when and on which page of which material the pointer of the laser beam is applied based on the captured image data DTS and the display switching history data DTR. Determine.

ポインタ位置判別部105は、図10のようなポインタテーブルTL1を予め用意しておく。この時点では、ポインタテーブルTL1には何も格納されていない。   The pointer position determination unit 105 prepares a pointer table TL1 as shown in FIG. At this time, nothing is stored in the pointer table TL1.

ポインタ位置判別部105は、ビデオカメラ22によって撮影された映像の各コマについて、次のように処理を行う。まず、ポインタ位置判別部105は、撮影画像データDTSに基づいて1番目のコマに注目する(図9の#501)。   The pointer position determination unit 105 performs the following process for each frame of the video shot by the video camera 22. First, the pointer position determination unit 105 pays attention to the first frame based on the captured image data DTS (# 501 in FIG. 9).

注目したコマ(以下、「注目コマ」と記載する。)と注目コマの元のコマつまりレーザポイント装置25によってポイントされていないコマとを比較し相違点の位置を特定することによって、注目コマからポインタおよびその位置を検知する(#502)。両者に相違点がなければポインタの位置は検知されない。   By comparing the focused frame (hereinafter referred to as “focused frame”) with the original frame of the focused frame, that is, the frame not pointed to by the laser point device 25, and identifying the position of the difference, The pointer and its position are detected (# 502). If there is no difference between them, the position of the pointer is not detected.

なお、注目コマの元のコマは、その注目コマが撮影された時刻にスクリーン24に表示された資料およびページを、進行実績データ受信部104によって受信された表示切換履歴データDTRに基づいて特定し、特定した資料の資料画像データDTGから得ることができる。   It should be noted that the original frame of the noticeable frame specifies the material and page displayed on the screen 24 at the time when the noticeable frame was shot based on the display switching history data DTR received by the progress record data receiving unit 104. It can be obtained from the material image data DTG of the identified material.

ポインタおよびその位置を検知できた場合は(#503でYes)、現在の注目コマの元のコマの資料およびページが、1つ前の注目コマの元のコマの資料およびページと同じでなければ(#504でNo)、ポインタ位置判別部105は、そのポインタが新たな部分を指したと判別し(#509)、そのポインタが指した資料、ページ、および位置(検知した位置)と開始時刻T0からの経過時間とを示すポインタ情報PJを生成し、ポインタテーブルTL1に格納する(#510)。以下、この時点の位置を「初期位置」と記載する。   If the pointer and its position can be detected (Yes in # 503), the material and page of the original frame of the current frame of interest are not the same as the material and page of the original frame of the previous frame of attention (No in # 504), the pointer position determination unit 105 determines that the pointer points to a new part (# 509), the material, page, and position (detected position) pointed to by the pointer and the start time Pointer information PJ indicating the elapsed time from T0 is generated and stored in the pointer table TL1 (# 510). Hereinafter, this position is referred to as “initial position”.

なお、1番目のコマが注目コマである場合は、1つ前の注目コマが存在しないので、ステップ#502においてポインタを検知できたのであれば、そのポインタが新たなポインタであると必然的にみなされ、そのポインタのポインタ情報PJがポインタテーブルTL1に追加される。   If the first frame is the target frame, there is no previous target frame, so if the pointer can be detected in step # 502, the pointer is necessarily a new pointer. The pointer information PJ of the pointer is added to the pointer table TL1.

一方、ステップ#502においてポインタを検知できなかった場合は(#503でNo)、ポインタ情報PJを生成し追加する処理も、後述するポインタ情報PJの更新の処理も、行わない。   On the other hand, if the pointer could not be detected in step # 502 (No in # 503), neither processing for generating and adding pointer information PJ nor processing for updating pointer information PJ, which will be described later, is performed.

そして、ポインタ位置判別部105は、注目コマの次のコマが残っていれば(#512でNo)、当該次のコマを新たに注目し(#511)、ステップ#502〜#510の処理を次のように適宜実行する。   Then, if the next frame of the frame of interest remains (No in # 512), the pointer position determination unit 105 newly pays attention to the next frame (# 511), and performs the processing of steps # 502 to # 510. Perform as appropriate:

ポインタ位置判別部105は、当該次のコマ(つまり、ここでは、注目コマ)とこの注目コマの元のコマとを比較し相違点の位置を特定することによって、この注目コマからポインタおよびその位置を検知する(#502)。   The pointer position determination unit 105 compares the next frame (that is, here the target frame) with the original frame of the target frame and identifies the position of the difference, thereby determining the pointer and the position from the target frame. Is detected (# 502).

ポインタおよびその位置を検知できた場合は(#503でYes)、現在の注目コマの元のコマの資料およびページが、1つ前の注目コマの元のコマの資料およびページと同じでなければ(#504でNo)、ポインタ位置判別部105は、そのポインタが新たなポインタであると判別し、そのポインタが指した資料、ページ、および位置(検知した位置)と開始時刻T0からの経過時間とを示すポインタ情報PJを生成し、ポインタテーブルTL1に格納する(#510)。つまり、表示される資料またはページに変化があった場合は、新たなポインタ情報PJが生成されポインタテーブルTL1に追加される。   If the pointer and its position can be detected (Yes in # 503), the material and page of the original frame of the current frame of interest are not the same as the material and page of the original frame of the previous frame of attention (No in # 504), the pointer position determination unit 105 determines that the pointer is a new pointer, the material, page, and position (detected position) pointed to by the pointer and the elapsed time from the start time T0. Is generated and stored in the pointer table TL1 (# 510). That is, when there is a change in the displayed material or page, new pointer information PJ is generated and added to the pointer table TL1.

現在の注目コマの元のコマの資料およびページが、1つ前の注目コマの元のコマの資料およびページと同じであれば(#504でYes)、最近に追加されたポインタ情報PJのポインタの初期位置と現在の注目コマの検知された位置とのX軸方向およびY軸方向の差を算出する(#505)。   If the material and page of the original frame of the current frame of interest are the same as the material and page of the original frame of the previous frame of interest (Yes in # 504), the pointer of the pointer information PJ added recently The difference between the initial position and the detected position of the current frame of interest is calculated in the X-axis direction and the Y-axis direction (# 505).

X軸方向の差およびY軸方向の差がともに閾値α(例えば、50ドット)以上である場合は(#506でYes)、ポインタ位置判別部105は、新たな部分にポインタが移動したと判別する(#509)。そのポインタが指した資料、ページ、および位置(検知した位置)と開始時刻T0からの経過時間とを示すポインタ情報PJを生成し、ポインタテーブルTL1に格納する(#510)。   If both the difference in the X-axis direction and the difference in the Y-axis direction are equal to or greater than a threshold value α (for example, 50 dots) (Yes in # 506), the pointer position determination unit 105 determines that the pointer has moved to a new part. (# 509). Pointer information PJ indicating the material, page and position (detected position) pointed to by the pointer and the elapsed time from the start time T0 is generated and stored in the pointer table TL1 (# 510).

X軸方向の差およびY軸方向の差のうちの少なくとも一方が閾値α未満である場合は(#506でNo)、ポインタ位置判別部105は、引き続き同じ部分をポインタが指していると判別する(#507)。この場合は、ポインタ位置判別部105は、現在の注目コマから検知したポインタの位置と、同じ部分を指していると判別した、他のコマから検知した各ポインタの位置との、平均的な位置(つまり、これらのコマにおけるポインタの移動範囲のほぼ中心の位置)を算出し、最新のポインタ情報PJのポインタ位置を、算出した位置に更新する(#508)。   When at least one of the difference in the X-axis direction and the difference in the Y-axis direction is less than the threshold α (No in # 506), the pointer position determination unit 105 continues to determine that the pointer is pointing to the same part. (# 507). In this case, the pointer position determination unit 105 determines an average position between the position of the pointer detected from the current frame of interest and the position of each pointer detected from another frame that has been determined to indicate the same part. (That is, the position of the approximate center of the pointer movement range in these frames) is calculated, and the pointer position of the latest pointer information PJ is updated to the calculated position (# 508).

例えば、同じ部分を指していると判別したポインタが3つ既に存在し、それぞれの位置が(x1,y1)、(x2,y2)、および(x3,y3)であり、今回検知したポインタの位置が(x4,y4)である場合は、ポインタ位置判別部105は、最新のポインタ情報PJの「ポインタ位置(x,y)」を((x1+x2+x3+x4)/4,(y1+y2+y3+y4)/4)に更新する。   For example, there are already three pointers that are determined to point to the same part, the positions of which are (x1, y1), (x2, y2), and (x3, y3), and the position of the pointer detected this time Is (x4, y4), the pointer position determination unit 105 updates the “pointer position (x, y)” of the latest pointer information PJ to ((x1 + x2 + x3 + x4) / 4, (y1 + y2 + y3 + y4) / 4). .

上記の処理を撮影した映像の各コマについて行うことによって、ポインタによって指された部分ごとのポインタ情報PJが得られる。   By performing the above processing for each frame of the captured video, pointer information PJ for each portion pointed to by the pointer is obtained.

図4および図6に戻って、進行実績データ保存部106には、ポインタ位置判別部105によって得られたポインタテーブルTL1および進行実績データ受信部104によって得られた録音データDTVが保存される。つまり、プレゼンテーションの議事録が保存される。   4 and 6, the progress record data storage unit 106 stores the pointer table TL1 obtained by the pointer position determination unit 105 and the recording data DTV obtained by the progress record data reception unit 104. That is, the minutes of the presentation are saved.

音声テキスト変換部107は、次に説明する資料画面表示処理部108からの要求に応じて、録音データDTVに基づいて進行役ユーザの音声をテキストデータ化する。つまり、音声認識処理を行う。   The voice text conversion unit 107 converts the voice of the facilitating user into text data based on the recording data DTV in response to a request from the material screen display processing unit 108 described below. That is, voice recognition processing is performed.

資料画面表示処理部108は、プレゼンテーションで使用された資料を進行役ユーザまたは参加者などのユーザが閲覧するための資料ブラウザ画面6を操作パネル10hに表示させる処理を行う。   The document screen display processing unit 108 performs a process of displaying a document browser screen 6 on the operation panel 10h for a user such as a facilitating user or a participant to view the document used in the presentation.

資料ブラウザ画面6は、図11に示すように、ポインタ遷移表示領域6Aおよび資料表示領域6Bによって構成される。   As shown in FIG. 11, the document browser screen 6 includes a pointer transition display area 6A and a document display area 6B.

資料表示領域6Bには、ポインタテーブルTL1に格納されている各ポインタ情報PJに示される、ポインタが指した部分の一覧が、配置される。ユーザが一覧の中からいずれかの部分を選択すると、資料画面表示処理部108は、その部分を含む資料およびページを、その資料の資料画像データDTGに基づいて資料表示領域6Bに表示させる。さらに、アイコン6Cを、その資料およびページ上の、そのポインタのポインタ情報PJの「ポインタ位置(x,y)」に示される位置を指すように配置する。   In the material display area 6B, a list of the parts pointed to by the pointers shown in the pointer information PJ stored in the pointer table TL1 is arranged. When the user selects any part from the list, the material screen display processing unit 108 displays the material and page including the part in the material display area 6B based on the material image data DTG of the material. Further, the icon 6C is arranged so as to point to the position indicated by “pointer position (x, y)” of the pointer information PJ of the pointer on the document and the page.

ユーザは、ポインタ遷移表示領域6Aに対して選択を行うことによって、プレゼンテーション中にポインタで説明がなされた部分を簡単に確認することができる。   The user can easily confirm the portion explained by the pointer during the presentation by selecting the pointer transition display area 6A.

また、資料画面表示処理部108は、ある資料のあるページを資料表示領域6Bに表示し、次に別の資料のあるページをした後、前の資料およびページを再表示する際に、当該別の資料およびページのアイコン6Dをポインタの位置を指すように配置する。   In addition, the document screen display processing unit 108 displays a certain document page in the document display area 6B, then displays another page with another document, and then redisplays the previous document and page. The material 6 and the page icon 6D are arranged to point to the position of the pointer.

例えば、資料画面表示処理部108は、ポインタ遷移表示領域6Aの上から6番目が選択されると、メイン資料Aの8ページ目を資料表示領域6Bに表示させる。次に上から7番目が選択されると、参考資料Bの10ページ目を表示させる。そして、再び上から6番目が選択されると、図12のように、参考資料Bの10ページ目のアイコン6Dを、アイコン6Cが指す位置と同じ位置を指すように配置する。アイコン6Dが選択されると、資料画面表示処理部108は、そのアイコン6Dに対応する資料およびページつまり参考資料Bの10ページ目を再び表示させる。   For example, when the sixth item from the top of the pointer transition display region 6A is selected, the material screen display processing unit 108 displays the eighth page of the main material A in the material display region 6B. Next, when the seventh item from the top is selected, the tenth page of the reference material B is displayed. When the sixth item from the top is selected again, the icon 6D on the 10th page of the reference material B is arranged so as to indicate the same position as the icon 6C as shown in FIG. When the icon 6D is selected, the material screen display processing unit 108 displays the material and page corresponding to the icon 6D, that is, the 10th page of the reference material B again.

音声再生処理部109は、ユーザがアイコン6Cを選択すると、そのアイコン6Cに位置をポインタが指した際の、進行役ユーザの音声を、録音データDTVに基づいて再生させる。再生の開始の時刻は、そのポインタのポインタ情報PJに示される経過時間を参照すれば分かる。例えば、経過時間が「10分21秒」であれば、開始時刻T0から10分21秒が経過したところから音声を再生させればよい。また、再生する時間は、所定の秒数である。または、ユーザが停止の指令を行うまで、再生を続けてもよい。   When the user selects the icon 6C, the voice reproduction processing unit 109 reproduces the voice of the facilitating user when the pointer points to the icon 6C based on the recording data DTV. The reproduction start time can be found by referring to the elapsed time indicated in the pointer information PJ of the pointer. For example, if the elapsed time is “10 minutes 21 seconds”, the sound may be reproduced from the point where 10 minutes 21 seconds have elapsed from the start time T0. Further, the reproduction time is a predetermined number of seconds. Alternatively, the reproduction may be continued until the user issues a stop command.

音声を再生するとともにまたはその代わりに、その音声を表すテキスト(文字列)を音声テキスト変換部107の音声認識処理によって生成し、図13のように、そのテキストを吹き出しのような形状で有するアイコンをアイコン6Cとして表示してもよい。そのテキストは、アイコン6Cが選択された際に表示してもよいし、最初から表示してもよい。   An icon having a text (character string) representing the voice generated by the voice recognition processing of the voice text conversion unit 107 and having the text in the shape of a balloon as shown in FIG. May be displayed as the icon 6C. The text may be displayed when the icon 6C is selected, or may be displayed from the beginning.

図14は画像形成装置1の全体的な処理の流れの例を説明するフローチャートである。   FIG. 14 is a flowchart illustrating an example of the overall processing flow of the image forming apparatus 1.

次に、画像形成装置1の、プレゼンテーションの資料の提示のための全体的な処理の流れを、図14のフローチャートを参照しながら説明する。   Next, the overall processing flow for presentation material presentation of the image forming apparatus 1 will be described with reference to the flowchart of FIG.

画像形成装置1は、プレゼンテーションが開始する前に、進行役ユーザが指定した資料の資料画像データDTGをプロジェクタ21へ送信する(図14の#1)。そして、開始時刻T0になったら、プロジェクタ21、ビデオカメラ22、および録音装置23に対して、記録を開始すべき旨の指令を与える(#2)。   The image forming apparatus 1 transmits the material image data DTG of the material designated by the facilitator user to the projector 21 before the presentation starts (# 1 in FIG. 14). When the start time T0 is reached, a command to start recording is given to the projector 21, the video camera 22, and the recording device 23 (# 2).

すると、プロジェクタ21は、進行役ユーザによる資料およびページの指定を記録し、図8のような表示切換履歴データDTRを生成する。ビデオカメラ22は、スクリーン24を撮影することによって、撮影画像データDTSを生成する。録音装置23は、進行役ユーザの音声を録音することによって、録音データDTVを生成する。   Then, the projector 21 records the material and page designation by the facilitating user, and generates display switching history data DTR as shown in FIG. The video camera 22 captures the screen 24 to generate captured image data DTS. The recording device 23 generates recording data DTV by recording the voice of the facilitating user.

画像形成装置1は、プレゼンテーションの進行のログのデータとして、プロジェクタ21から表示切換履歴データDTRを受信し、ビデオカメラ22から撮影画像データDTSを受信し、録音装置23から録音データDTVを受信する(#3)。   The image forming apparatus 1 receives display switching history data DTR from the projector 21 as presentation progress log data, receives photographed image data DTS from the video camera 22, and receives recording data DTV from the recording device 23 ( # 3).

そして、画像形成装置1は、受信した撮影画像データDTSおよび表示切換履歴データDTRに基づいて、レーザポイント装置25によるポインタの位置を判別し、位置の遷移のデータ、つまり、図10に示すようなポインタ情報PJを生成する(#4)。ポインタ情報PJを生成する処理の手順は、前に図9で説明した通りである。   Then, the image forming apparatus 1 determines the position of the pointer by the laser point device 25 based on the received photographed image data DTS and display switching history data DTR, and the position transition data, that is, as shown in FIG. Pointer information PJ is generated (# 4). The procedure for generating the pointer information PJ is as described above with reference to FIG.

プレゼンテーションの終了後、ユーザが所定のコマンドを入力すると、画像形成装置1は、図11のような資料ブラウザ画面6を表示する(#5)。資料表示領域6Bには、デフォルトの資料およびページとして、ポインタテーブルTL1の1番上のポインタ情報PJに示される資料およびページ、つまり、プレゼンテーションにおいて最初にスクリーン24に表示された資料およびページを、表示する。ポインタ遷移表示領域6Aには、ポインタで指された部分が複数示されるが、この時点では、1番上の部分が選択された状態になっている。   When the user inputs a predetermined command after the presentation is finished, the image forming apparatus 1 displays a document browser screen 6 as shown in FIG. 11 (# 5). In the material display area 6B, the material and page indicated by the pointer information PJ at the top of the pointer table TL1, that is, the material and page initially displayed on the screen 24 in the presentation are displayed as default materials and pages. To do. In the pointer transition display area 6A, a plurality of parts pointed by the pointer are shown, but at this point, the uppermost part is selected.

ここで、ユーザは、ポインタ遷移表示領域6Aの中から、任意の部分を選択することができる。または、アイコン6Cを選択することができる。または、アイコン6Dが表示されている場合は、それを選択することができる。   Here, the user can select an arbitrary portion from the pointer transition display area 6A. Alternatively, the icon 6C can be selected. Or when the icon 6D is displayed, it can be selected.

ポインタ遷移表示領域6Aの中からいずれかの部分が選択された場合は(#7でYes)、画像形成装置1は、資料表示領域6Bに、現在表示している資料およびページの代わりに、選択された部分を含む資料およびページを新たに表示する(#10)。ただし、選択された部分を含む資料が資料表示領域6Bに現在表示している資料と異なりかつ以前に資料表示領域6Bに表示されたことがある場合は(#8でYes)、図13のように、選択された部分を含む資料およびページを、アイコン6Dを配置して表示する(#9)。   When any part is selected from the pointer transition display area 6A (Yes in # 7), the image forming apparatus 1 selects the material display area 6B instead of the currently displayed material and page. The material and page including the marked portion are newly displayed (# 10). However, if the material including the selected portion is different from the material currently displayed in the material display area 6B and has been displayed in the material display area 6B before (Yes in # 8), as shown in FIG. The material and page including the selected portion are displayed with the icon 6D arranged (# 9).

または、アイコン6Dが選択された場合は(#7でNo、#11でYes)、画像形成装置1は、資料表示領域6Bに、現在表示している資料およびページの代わりに、そのアイコン6Dに対応付けられている資料およびページを表示する(#12)。   Alternatively, when the icon 6D is selected (No in # 7, Yes in # 11), the image forming apparatus 1 displays the icon 6D in the material display area 6B instead of the currently displayed material and page. The associated material and page are displayed (# 12).

または、アイコン6Cが選択された場合は(#7でNo、#11でNo、#13でYes)、そのアイコン6Cが示す部分がポインタで指された際の進行役ユーザの音声を再生する(#14)。   Or, when the icon 6C is selected (No in # 7, No in # 11, Yes in # 13), the voice of the facilitating user when the part indicated by the icon 6C is pointed by the pointer is reproduced ( # 14).

ステップ#9、#12、および#14の処理は、ユーザによる操作に応じて適宜実行される。   The processes of steps # 9, # 12, and # 14 are appropriately executed according to the operation by the user.

本実施形態によると、ユーザは、プレゼンテーションなどで要点になった内容、例えば議論の内容およびアクションアイテムなどを、従来よりも簡単に確認することができる。   According to the present embodiment, the user can more easily confirm the contents that are important points in the presentation, for example, the contents of the discussion and the action items.

本実施形態では、資料の表示用の装置として液晶プロジェクタを用いたが、プラズマディスプレイなどを用いてもよい。   In the present embodiment, a liquid crystal projector is used as an apparatus for displaying a document.

本実施形態では、資料を指し示す装置としてレーザポインタを用いたが、指し棒を用いてもよい。この場合は、指し棒の先端をポインタとして検知すればよい。または、マウスポインタを用いてもよい。マウスポインタを用いる場合は、マウスポインタの位置をパーソナルコンピュータ3のオペレーティングシステムに問い合わせることによって、ポインタの位置を検知することができる。   In the present embodiment, a laser pointer is used as a device for pointing a material, but a pointer may be used. In this case, the tip of the pointer may be detected as a pointer. Alternatively, a mouse pointer may be used. When the mouse pointer is used, the position of the pointer can be detected by inquiring the position of the mouse pointer to the operating system of the personal computer 3.

本実施形態では、開始時刻T0になったときにスクリーン24の撮影および進行役ユーザの音声の録音を開始したが、進行役ユーザの合図があったときに開始してもよい。この場合は、合図があった時刻を開始時刻T0とすればよい。   In the present embodiment, shooting of the screen 24 and recording of the voice of the facilitating user are started when the start time T0 is reached, but may be started when the facilitating user receives a signal. In this case, the time when the signal is given may be set as the start time T0.

本発明は、プレゼンテーションのためだけでなく、授業およびセミナーなどのためにも用いることができる。   The present invention can be used not only for presentations but also for classes and seminars.

本実施形態では、資料ブラウザ画面6を画像形成装置1のタッチパネル10h1に表示させたが、パーソナルコンピュータ3のディスプレイに表示させてもよい。   In the present embodiment, the document browser screen 6 is displayed on the touch panel 10h1 of the image forming apparatus 1, but may be displayed on the display of the personal computer 3.

その他、組織ネットワークシステムSY、画像形成装置1、プレゼンテーションシステム2、プロジェクタ21の全体または各部の構成、処理内容、処理順序、データの構成、閾値αの値などは、本発明の趣旨に沿って適宜変更することができる。   In addition, the organization network system SY, the image forming apparatus 1, the presentation system 2, the configuration of the whole or each part of the projector 21, the processing content, the processing order, the data configuration, the value of the threshold value α, and the like are appropriately determined in accordance with the spirit of the present invention. Can be changed.

1 画像形成装置(画像処理装置)
104 進行実績データ受信部(音声記憶手段)
105 ポインタ位置判別部(ポインタ検知手段)
108 資料画面表示処理部(選択肢表示処理手段、画像再表示処理手段)
109 音声再生処理部(音声再生手段)
10h1 タッチパネル(第二の表示装置)
10j 音声再生ユニット(音声再生手段)
24 スクリーン(第一の表示装置)
6A ポインタ遷移表示領域
6B 資料表示領域
6C アイコン(目印)
6D アイコン(第二の目印)
1 Image forming device (image processing device)
104 Progress record data receiver (voice storage means)
105 Pointer position determination unit (pointer detection means)
108 Document screen display processing unit (option display processing means, image redisplay processing means)
109 Audio reproduction processing unit (audio reproduction means)
10h1 touch panel (second display device)
10j Audio reproduction unit (audio reproduction means)
24 screen (first display device)
6A Pointer transition display area 6B Material display area 6C Icon (mark)
6D icon (second landmark)

Claims (7)

第一の表示装置に選択的に表示された画像を確認するための支援を行う画像処理装置であって、
前記第一の表示装置によって表示された前記画像に対して指されたポインタおよび当該画像における当該ポインタの位置を検知するポインタ検知手段と、
検知された前記ポインタの位置を選択するための選択肢を第二の表示装置に表示させる選択肢表示処理手段と、
前記選択肢が選択されるごとに、当該選択された選択肢に係る前記ポインタの位置を指すように目印を配置した状態で、当該位置で前記ポインタが検知された前記画像を前記第二の表示装置に表示させる画像再表示処理手段と、
を有することを特徴とする画像処理装置。
An image processing device that provides support for confirming an image selectively displayed on a first display device,
A pointer pointed to the image displayed by the first display device and pointer detection means for detecting the position of the pointer in the image;
Option display processing means for displaying an option for selecting the position of the detected pointer on the second display device;
Each time the option is selected, the image in which the pointer is detected at the position is displayed on the second display device in a state where a mark is arranged to indicate the position of the pointer related to the selected option. Image redisplay processing means to be displayed;
An image processing apparatus comprising:
前記画像再表示処理手段は、前記画像として第一の資料を表示させ、次に前記画像として第二の資料を表示させた後、前記画像として当該第一の資料を再度表示させる場合は、当該第二の資料の存在を伝えるための第二の目印とともに表示する、
請求項2記載の画像処理装置。
The image re-display processing means displays the first material as the image, and then displays the second material as the image, and then displays the first material again as the image. Display with a second landmark to convey the presence of the second material,
The image processing apparatus according to claim 2.
前記画像再表示処理手段は、前記第二の目印が選択されると前記画像として前記第二の資料を表示させる、
請求項2記載の画像処理装置。
The image redisplay processing means displays the second material as the image when the second mark is selected,
The image processing apparatus according to claim 2.
前記画像を前記第一の表示装置に表示させて行われるプレゼンテーションを録音した音声を記憶する音声記憶手段と、
前記目印が選択されたときに、当該目印の位置が前記ポインタによって指された際の音声を再生する音声再生手段と、を有する、
請求項1ないし請求項3のいずれかに記載の画像処理装置。
Audio storage means for storing audio recording a presentation made by displaying the image on the first display device;
Sound reproduction means for reproducing sound when the position of the mark is pointed by the pointer when the mark is selected;
The image processing apparatus according to claim 1.
前記画像再表示処理手段は、前記目印として、当該目印の位置が前記ポインタによって指された際に録音された音声の内容を表すテキストを含む目印を配置する、
請求項1ないし請求項4のいずれかに記載の画像処理装置。
The image re-display processing means arranges a mark including text representing the content of sound recorded when the position of the mark is pointed by the pointer, as the mark.
The image processing apparatus according to claim 1.
第一の表示装置に選択的に表示された画像を確認するための支援を行う表示履歴確認支援方法であって、
前記第一の表示装置によって表示された前記画像に対して指されたポインタおよび当該画像における当該ポインタの位置をコンピュータに検知させ、
検知された前記ポインタの位置を選択するための選択肢を第二の表示装置に表示させ、
前記選択肢が選択されるごとに、当該選択された選択肢に係る前記ポインタの位置を指すように目印を配置した状態で、当該位置で前記ポインタが検知された前記画像を前記第二の表示装置に表示させる、
ことを特徴とする表示履歴確認支援方法。
A display history confirmation support method for performing support for confirming an image selectively displayed on a first display device,
Causing the computer to detect the pointer pointed to the image displayed by the first display device and the position of the pointer in the image;
An option for selecting the detected position of the pointer is displayed on the second display device,
Each time the option is selected, the image in which the pointer is detected at the position is displayed on the second display device in a state where a mark is arranged to indicate the position of the pointer related to the selected option. Display,
A display history check support method characterized by that.
第一の表示装置に選択的に表示された画像を確認するための支援を行うコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
前記第一の表示装置によって表示された前記画像に対して指されたポインタおよび当該画像における当該ポインタの位置を検知する処理と、
検知された前記ポインタの位置を選択するための選択肢を第二の表示装置に表示させる処理と、
前記選択肢が選択されるごとに、当該選択された選択肢に係る前記ポインタの位置を指すように目印を配置した状態で、当該位置で前記ポインタが検知された前記画像を前記第二の表示装置に表示させる処理と、
を実行させることを特徴とするコンピュータプログラム。
A computer program used for a computer that provides support for confirming an image selectively displayed on a first display device,
In the computer,
Processing for detecting a pointer pointed to the image displayed by the first display device and a position of the pointer in the image;
A process of displaying on the second display device an option for selecting the detected position of the pointer;
Each time the option is selected, the image in which the pointer is detected at the position is displayed on the second display device in a state where a mark is arranged to indicate the position of the pointer related to the selected option. Processing to display,
A computer program for executing
JP2009110327A 2009-04-30 2009-04-30 Image processing device, display history confirmation support method, and computer program Pending JP2010261989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009110327A JP2010261989A (en) 2009-04-30 2009-04-30 Image processing device, display history confirmation support method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009110327A JP2010261989A (en) 2009-04-30 2009-04-30 Image processing device, display history confirmation support method, and computer program

Publications (1)

Publication Number Publication Date
JP2010261989A true JP2010261989A (en) 2010-11-18

Family

ID=43360132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009110327A Pending JP2010261989A (en) 2009-04-30 2009-04-30 Image processing device, display history confirmation support method, and computer program

Country Status (1)

Country Link
JP (1) JP2010261989A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012109901A (en) * 2010-11-19 2012-06-07 Elmo Co Ltd Data presentation device
JP2013114467A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013232149A (en) * 2012-05-01 2013-11-14 Dainippon Printing Co Ltd Computer device, program and information processing system
JP2014089261A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, program and image processing method
CN104063171A (en) * 2013-03-21 2014-09-24 卡西欧计算机株式会社 Information Processing Apparatus, Information Processing Method
JP2014525100A (en) * 2011-07-25 2014-09-25 京東方科技集團股▲ふん▼有限公司 Display system
JPWO2014073092A1 (en) * 2012-11-09 2016-09-08 日立マクセル株式会社 Projection-type image display device
JP2021111951A (en) * 2020-01-15 2021-08-02 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co., Ltd. Remote controller, screen projection receiver, television, screen projection system, and screen projection method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012109901A (en) * 2010-11-19 2012-06-07 Elmo Co Ltd Data presentation device
JP2014525100A (en) * 2011-07-25 2014-09-25 京東方科技集團股▲ふん▼有限公司 Display system
JP2013114467A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013232149A (en) * 2012-05-01 2013-11-14 Dainippon Printing Co Ltd Computer device, program and information processing system
JP2014089261A (en) * 2012-10-29 2014-05-15 Casio Comput Co Ltd Image processor, program and image processing method
JPWO2014073092A1 (en) * 2012-11-09 2016-09-08 日立マクセル株式会社 Projection-type image display device
CN104063171A (en) * 2013-03-21 2014-09-24 卡西欧计算机株式会社 Information Processing Apparatus, Information Processing Method
US9317145B2 (en) 2013-03-21 2016-04-19 Casio Computer Co., Ltd. Information processing apparatus, information processing method, and computer readable medium
JP2021111951A (en) * 2020-01-15 2021-08-02 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co., Ltd. Remote controller, screen projection receiver, television, screen projection system, and screen projection method
JP6995925B2 (en) 2020-01-15 2022-01-17 北京小米移動軟件有限公司 Remote control, screen projection receiver, television, screen projection system and screen projection method
US11553231B2 (en) 2020-01-15 2023-01-10 Beijing Xiaomi Mobile Software Co., Ltd. Remote controller, screen projection receiving component, television, screen projection system and screen projection method

Similar Documents

Publication Publication Date Title
JP2010261989A (en) Image processing device, display history confirmation support method, and computer program
JP6040731B2 (en) Cooperation processing apparatus, cooperation processing system, and program
US20160379597A1 (en) Terminal apparatus, screen recording method, program, and information processing system
JP2010146086A (en) Data delivery system, data delivery device, data delivery method, and data delivery program
US20110227951A1 (en) Conference system, information processing apparatus, display method, and non-transitory computer-readable recording medium encoded with display program
JP2010146115A (en) Presentation system, data management device, and program
JP2008005284A (en) Image forming unit, image processing method, and control program executing the same method
US10762043B2 (en) Information processing system, information processing apparatus, and information processing method
JP2009294237A (en) Conference system, data processing device, image transmission method and image transmission program
JP2008160171A (en) Image processor, image processing method, program, and storage medium
JP2017107529A (en) Information processing system, terminal equipment, and program
JP2011065348A (en) Conference system, display device, display control method, and display control program
US8046359B2 (en) Data processing apparatus, display control method, and display control program embodied on computer readable medium
JP2016110253A (en) Information processing system, information processing apparatus, information processing method and program
JP5754117B2 (en) External input device, display data creation method, program
JP2006235159A (en) Image display device and program for operating the same
US8682920B2 (en) Information providing apparatus, information providing method, and information providing program embodied on computer readable medium
JP2018072883A (en) Information processing device, data structure of image file, and program
JP4127382B2 (en) Presentation device
JP2004259250A (en) Multifunctional server apparatus
JP2010262512A (en) Web server, image forming device, presentation support system, control method and computer program
JP2010015032A (en) Projector, control method thereof, and image projection display system
JP2009070207A (en) Data processor, data output method, and data output program
JP2008118317A (en) Projection device
JP5298572B2 (en) Image transmission apparatus, image transmission method, and image transmission program