JP2016014834A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2016014834A
JP2016014834A JP2014137855A JP2014137855A JP2016014834A JP 2016014834 A JP2016014834 A JP 2016014834A JP 2014137855 A JP2014137855 A JP 2014137855A JP 2014137855 A JP2014137855 A JP 2014137855A JP 2016014834 A JP2016014834 A JP 2016014834A
Authority
JP
Japan
Prior art keywords
phase
unit
clock signal
video
sampling clock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014137855A
Other languages
Japanese (ja)
Inventor
岡田 敦
Atsushi Okada
敦 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014137855A priority Critical patent/JP2016014834A/en
Publication of JP2016014834A publication Critical patent/JP2016014834A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent flicker and fluctuation of a display image to the maximum extent.SOLUTION: An image processing apparatus includes: a video acquisition part 21 that acquires a video signal and creates a sampling clock signal on the basis of the video signal; an image processing part 30 that calculates the amount of change in brightness between two frames of the video signal; and a phase adjustment control part 29 that determines the phase of the sampling clock signal on the basis of the amount of change in brightness and outputs the phase from the video acquisition part 21. The phase adjustment control part 29 determines the phase of the sampling clock signal in which the amount of change in brightness becomes maximum and causes the video acquisition part 21 to create a sampling clock signal with a reverse phase having a phase reverse to the determined phase.

Description

本発明は、外部から取得した映像信号を表示した際に生じる表示画像のちらつきや揺らぎを最大限に防止することに好適な画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program suitable for preventing the flicker and fluctuation of a display image that occur when a video signal acquired from outside is displayed.

従来、企業や教育機関、行政機関等における会議等において、ディスプレイにコンピュータ装置からの背景画像を表示させ、この背景画像の上にユーザが文字や数字、図形等のストローク画像を描画可能な電子黒板が利用されている。   2. Description of the Related Art Conventionally, an electronic blackboard that allows a background image from a computer device to be displayed on a display and a user to draw stroke images such as letters, numbers, and figures on the background image at a meeting in a company, an educational institution, an administrative organization, etc. Is being used.

ここで、コンピュータ装置から出力されるアナログ映像信号の内容と、一般的な受信側の装置で行われる表示画像の生成方法について説明する。
コンピュータ装置から出力されるアナログ映像信号は、主にR(赤)G(緑)B(青)の輝度を表す信号(以下、RGB信号)と、水平同期信号、及び垂直同期信号などから構成されている。このRGB信号は、水平同期信号、及び垂直同期信号により画像エリアを走査された際に各画素の輝度を電圧値で表すように構成されている。アナログ映像信号を受信する装置では、RGB信号の電圧値をサンプリングすることで、各画素の輝度を表す電圧レベルをA/D変換器によりアナログ/デジタル変換を行い、デジタルデータとなった画像データを生成している。
ここで、A/D変換器でのサンプリングに用いるサンプリングクロック信号は、受信側の装置の内部でPLL回路により生成されるため、RGB信号に対してサンプリングクロック信号の位相がずれている。このため、サンプリングクロック信号の位相を調整する必要がある。
Here, the contents of the analog video signal output from the computer apparatus and the display image generation method performed by a general receiving apparatus will be described.
The analog video signal output from the computer apparatus is mainly composed of a signal (hereinafter referred to as RGB signal) representing luminance of R (red), G (green), and B (blue), a horizontal synchronization signal, a vertical synchronization signal, and the like. ing. This RGB signal is configured so that the luminance of each pixel is represented by a voltage value when the image area is scanned by the horizontal synchronizing signal and the vertical synchronizing signal. In an apparatus that receives an analog video signal, the voltage value representing the luminance of each pixel is analog / digital converted by an A / D converter by sampling the voltage value of the RGB signal, and the image data converted into digital data is converted into digital data. Is generated.
Here, since the sampling clock signal used for sampling in the A / D converter is generated by the PLL circuit inside the receiving device, the phase of the sampling clock signal is shifted from the RGB signal. For this reason, it is necessary to adjust the phase of the sampling clock signal.

特許文献1には、表示エリアを複数のエリアに区分けし、エリア毎に画素間の輝度差と前フレームとの輝度値の変化量を算出し、画素間の輝度差を重み付けした上で前フレームとの輝度値の差分値が小さくなるサンプリンククロック位相に設定するという技術が開示されている。   In Patent Document 1, the display area is divided into a plurality of areas, the amount of change in luminance value between pixels and the previous frame is calculated for each area, the luminance difference between pixels is weighted, and the previous frame A technique of setting a sampling clock phase at which a difference value between luminance values becomes small is disclosed.

しかしながら、特許文献1にあっては、位相調整の実施時に各区分エリアで画素間の輝度差が一様に小さい場合は、最適な位相を決定できなかった。また、一定期間おきに位相調整を実施していないため、画素間の輝度差が大きくなるタイミングにおいて最適な位相を決定することができなかった。さらに、位相調整の回数を重ねても、一層適切な位相を決定できないといった問題があった。
本発明は、上記に鑑みてなされたもので、その目的としては、表示画像のちらつきや揺らぎを最大限に防止することができる画像処理装置、画像処理方法、及びプログラムを提供することにある。
However, in Patent Document 1, when the luminance difference between the pixels is uniformly small in each divided area when the phase adjustment is performed, the optimum phase cannot be determined. In addition, since the phase adjustment is not performed at regular intervals, the optimum phase cannot be determined at the timing when the luminance difference between pixels becomes large. Furthermore, there is a problem that even if the number of phase adjustments is repeated, a more appropriate phase cannot be determined.
The present invention has been made in view of the above, and an object thereof is to provide an image processing apparatus, an image processing method, and a program that can prevent flickering and fluctuation of a display image to the maximum extent.

請求項1記載の発明は、上記課題を解決するため、映像信号を取得するとともに、前記映像信号に基づいてサンプリングクロック信号を生成する映像取得部と、前記映像信号の2つのフレーム間の輝度変化量を算出する画像処理部と、前記輝度変化量に基づいて、前記サンプリングクロック信号の位相を決定し、前記映像取得部から当該位相を出力させる位相調整制御部と、を備え、前記位相調整制御部は、前記輝度変化量が最大になる前記サンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を前記映像取得部に生成させることを特徴とする。   In order to solve the above problems, the invention according to claim 1 acquires a video signal and generates a sampling clock signal based on the video signal, and a luminance change between two frames of the video signal An image processing unit that calculates an amount; and a phase adjustment control unit that determines a phase of the sampling clock signal based on the luminance change amount and outputs the phase from the video acquisition unit, and the phase adjustment control The unit obtains a phase of the sampling clock signal that maximizes the amount of change in luminance, and causes the video acquisition unit to generate a sampling clock signal having an inverted phase obtained by inverting the phase.

本発明によれば、映像信号の2つのフレーム間の輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を映像取得部に生成させることで、表示画像のちらつきや揺らぎを最大限に防止することができる。   According to the present invention, the phase of the sampling clock signal that maximizes the amount of change in luminance between two frames of the video signal is obtained, and the video acquisition unit generates a sampling clock signal having an inverted phase obtained by inverting the phase. The flickering and fluctuation of the display image can be prevented to the maximum.

本実施形態の画像処理システムの全体構成図である。1 is an overall configuration diagram of an image processing system according to an embodiment. 電子黒板のハードウェア構成図である。It is a hardware block diagram of an electronic blackboard. 電子黒板の機能ブロック図である。It is a functional block diagram of an electronic blackboard. ファイル処理部の機能ブロック図である。It is a functional block diagram of a file processing unit. ページデータを示す概念図である。It is a conceptual diagram which shows page data. ストロークデータを示す概念図である。It is a conceptual diagram which shows stroke data. 座標配列データを示す概念図である。It is a conceptual diagram which shows coordinate arrangement | sequence data. メディアデータを示す概念図である。It is a conceptual diagram which shows media data. アドレス帳管理テーブルを示す概念図である。It is a conceptual diagram which shows an address book management table. バックアップデータを示す概念図である。It is a conceptual diagram which shows backup data. 操作データを示す概念図である。It is a conceptual diagram which shows operation data. 各画像レイヤの構成図である。It is a block diagram of each image layer. 本発明の実施形態に係る画像処理装置の特徴的な構成を示すブロック図である。1 is a block diagram illustrating a characteristic configuration of an image processing apparatus according to an embodiment of the present invention. 図13に示す位相調整制御部のメイン動作を示すフローチャートである。It is a flowchart which shows the main operation | movement of the phase adjustment control part shown in FIG. 図13に示す位相調整制御部のサブルーチンの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the subroutine of the phase adjustment control part shown in FIG. RGB信号の位相に対してサンプリングクロック信号の位相が適切な一例を示すタイミングチャートである。It is a timing chart which shows an example in which the phase of a sampling clock signal is appropriate with respect to the phase of an RGB signal. RGB信号の位相に対してサンプリングクロック信号の位相が不適切な一例を示すタイミングチャートである。It is a timing chart which shows an example in which the phase of a sampling clock signal is inappropriate with respect to the phase of RGB signal.

本発明の実施形態を説明する。本発明は、サンプリングクロック信号の位相毎に、表示エリアの全画素において2フレーム間の輝度変化量を算出する。そして、2フレーム間の輝度変化量が最大になるサンプリングクロック信号の位相を抽出し、この位相の反転位相をサンプリングクロック信号に位相として設定する。このとき、輝度変化量が最大となった位相を記憶しておき、この位相調整フローを一定期間おきに実施し、位相調整フローで輝度変化量の最大値が前回の位相調整時の輝度変化量の最大値より大きければ位相設定を更新し、そうでなければ位相設定を更新しないことを特徴としている。   An embodiment of the present invention will be described. The present invention calculates the amount of change in luminance between two frames in all pixels in the display area for each phase of the sampling clock signal. Then, the phase of the sampling clock signal that maximizes the amount of change in luminance between two frames is extracted, and the inverted phase of this phase is set as the phase in the sampling clock signal. At this time, the phase at which the luminance change amount is maximized is stored, and this phase adjustment flow is performed at regular intervals. The maximum luminance change amount in the phase adjustment flow is the luminance change amount at the previous phase adjustment. If it is larger than the maximum value, the phase setting is updated. Otherwise, the phase setting is not updated.

以下、図面を用いて、本発明の一実施形態を説明する。
<システムの概要>
図1は、本実施形態の画像処理システムの全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a、2b及びこれに付随する電子ペン4a、4b等を示しているだけであって、3台以上の電子黒板や電子ペン等を利用してもよい。
図1に示されているように、画像処理システム1は、複数の電子黒板2a、2b、複数の電子ペン4a、4b、USBメモリ5a、5b、ノートPC(Personal Computer)6a、6b、テレビ(ビデオ)会議端末7a、7b、及びPC8を有する。また、電子黒板2a、2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の電子黒板2a、2bには、それぞれディスプレイ3a、3bが設けられている
また、電子黒板2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<System overview>
FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment. In FIG. 1, only two electronic blackboards 2a and 2b and electronic pens 4a and 4b associated with the electronic blackboards 2a and 2b are shown to simplify the description. A pen or the like may be used.
As shown in FIG. 1, the image processing system 1 includes a plurality of electronic blackboards 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, notebook PCs (Personal Computer) 6a and 6b, a television ( Video) having conference terminals 7a, 7b and PC8. The electronic blackboards 2a and 2b and the PC 8 are connected via a communication network 9 so that they can communicate with each other. Further, the plurality of electronic blackboards 2a and 2b are respectively provided with displays 3a and 3b. Also, the electronic blackboard 2a has an event generated by the electronic pen 4a (the pen tip of the electronic pen 4a on the display 3a or An image drawn by touching the pen butt of the electronic pen 4a can be displayed on the display 3a. Note that the image displayed on the display 3a can be changed based not only on the electronic pen 4a but also on an event (a gesture such as enlargement, reduction, or page turning) generated by the user's hand Ha or the like.

また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、電子黒板2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、電子黒板2aには、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、電子黒板2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、ノートPC6aに送信する。同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。
一方、電子黒板2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。
The electronic blackboard 2a can be connected to a USB memory 5a. The electronic blackboard 2a reads an electronic file such as PDF from the USB memory 5a, and the electronic blackboard 2a records an electronic file in the USB memory 5a. Can do. The electronic blackboard 2a is connected to a display port, a DVI (Digital Visual Interface), an HDMI (registered trademark) (High-Definition Multimedia Interface), and a cable 10a1 capable of communication according to a standard such as VGA (Video Graphics Array). A notebook PC 6a is connected. Then, the electronic blackboard 2a generates an event by touching the display 3a, and transmits event information indicating the event to the notebook PC 6a in the same manner as an event from an input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal 7a is connected to the electronic blackboard 2a via a cable 10a2 capable of communication according to the above-mentioned standards. Note that the notebook PC 6a and the video conference terminal 7a may communicate with the electronic blackboard 2a by wireless communication complying with various wireless communication protocols such as Bluetooth (registered trademark).
On the other hand, in the other bases where the electronic blackboard 2b is installed, the electronic blackboard 2b with the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, and the cable 10b2 in the same manner as described above. Is used. Furthermore, the image displayed on the display 3b can be changed based on an event caused by the user's hand Hb or the like.

これにより、一の拠点で電子黒板2aのディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bのディスプレイ3b上にも表示され、逆に他の拠点で電子黒板2bのディスプレイ3b上に描画された画像は、一の拠点で電子黒板2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。
なお、以下では、複数の電子黒板のうち任意の電子黒板を示す場合には「電子黒板2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノードPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。
Thereby, the image drawn on the display 3a of the electronic blackboard 2a at one base is also displayed on the display 3b of the electronic blackboard 2b at another base, and conversely on the display 3b of the electronic blackboard 2b at another base. The image drawn on is displayed on the display 3a of the electronic blackboard 2a at one base. As described above, the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and thus is very convenient when used for a conference or the like at a remote location.
In the following, when an arbitrary electronic blackboard among the plurality of electronic blackboards is indicated, it is indicated as “electronic blackboard 2”. When an arbitrary display among a plurality of displays is shown, “display 3” is shown. When an arbitrary electronic pen among a plurality of electronic pens is indicated, it is indicated as “electronic pen 4”. When an arbitrary USB memory is indicated among the plurality of USB memories, it is indicated as “USB memory 5”. When an arbitrary notebook PC is indicated among the plurality of notebook PCs, it is indicated as “node PC 6”. When an arbitrary video conference terminal is indicated among the plurality of video conference terminals, it is indicated as “video conference terminal 7”. In addition, “hand H” is used when an arbitrary hand among the hands of a plurality of users is shown. When an arbitrary cable is indicated among the plurality of cables, it is indicated as “cable 10”.

また、本実施形態では、画像処理装置の一例として、電子黒板を説明するが、これに限るものではなく、画像処理装置の他の例として、プロジェクタ、ディスプレイ等の製品にも適用可能である。また、情報処理端末の一例として、ノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。
更に、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。
In this embodiment, an electronic blackboard will be described as an example of an image processing apparatus. However, the present invention is not limited to this, and the present invention can also be applied to products such as a projector and a display as other examples of the image processing apparatus. The notebook PC 6 will be described as an example of the information processing terminal, but is not limited thereto. Other examples of the information processing terminal include a desktop PC, a tablet PC, a PDA, a digital video camera, a digital camera, and a game. It may be a terminal capable of supplying image frames such as a machine.
Further, the communication network includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like. In this embodiment, a USB memory is described as an example of a recording medium. However, the present invention is not limited to this, and various recording media such as an SD card may be used as another example of the recording medium.

<電子黒板のハードウェア構成>
続いて、図2を用いて、本実施形態の電子黒板のハードウェア構成を説明する。なお、図2は、電子黒板のハードウェア構成図である。
図2に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL等のCPU101の駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、電子黒板2用のプログラム等の各種データを記憶するSSD204、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。
また、電子黒板2は、ノートPC6のディスプレイに表示されている映像情報を静止画または動画として取得するキャプチャデバイス111、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112、及び、GPUからの出力画像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ105を備えている。
<Hardware configuration of electronic blackboard>
Next, the hardware configuration of the electronic blackboard according to the present embodiment will be described with reference to FIG. FIG. 2 is a hardware configuration diagram of the electronic blackboard.
As shown in FIG. 2, the electronic blackboard 2 includes a CPU 101 that controls the operation of the electronic blackboard 2 as a whole, a ROM 102 that stores a program used to drive the CPU 101 such as an IPL, and a RAM 103 that is used as a work area of the CPU 101. And an SSD 204 for storing various data such as a program for the electronic blackboard 2, a network controller 105 for controlling communication with the communication network 9, and an external storage controller 106 for controlling communication with the USB memory 5.
The electronic blackboard 2 includes a capture device 111 that acquires video information displayed on the display of the notebook PC 6 as a still image or a moving image, a GPU (Graphics Processing Unit) 112 that specializes in graphics, and an output image from the GPU. Is output to the display 3 or the video conference terminal 7, a display controller 105 that controls and manages screen display is provided.

更に、電子黒板2は、接触センサ115の処理を制御するセンサコントローラ114、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する接触センサ115を備えている。この接触センサ115は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置(不図示)が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ115は、物体によって遮断された2つの受発光装置が放射した赤外線のID(Identification)をセンサコントローラ114に出力し、センサコントローラ114が、物体の接触位置である座標位置を特定する。なお、以下に示す全ての各IDは、識別情報の一例である。   The electronic blackboard 2 further includes a sensor controller 114 that controls processing of the contact sensor 115 and a contact sensor 115 that detects that the electronic pen 4 or the hand H of the user touches the display 3. The contact sensor 115 performs coordinate input and coordinate detection by an infrared ray blocking method. In this coordinate input and coordinate detection method, two light emitting / receiving devices (not shown) installed at both upper ends of the display 3 emit a plurality of infrared rays in parallel with the display 3, This is a method of receiving light that is reflected by the reflecting member provided on the light source and returns on the same optical path as the light path of the light emitted by the light receiving element. The contact sensor 115 outputs infrared IDs (Identification) emitted from the two light receiving and emitting devices blocked by the object to the sensor controller 114, and the sensor controller 114 specifies the coordinate position that is the contact position of the object. All IDs shown below are examples of identification information.

また、接触センサ115としては、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2の抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。
また、電子黒板2は、電子ペンコントローラ116を備えている。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
更に、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、センサコントローラ114、及び電子ペンコントローラ116を、図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。
なお、電子黒板2用のプログラムは、CD−ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
In addition, the contact sensor 115 is not limited to the infrared ray blocking method, but a capacitance type touch panel that identifies a contact position by detecting a change in capacitance, or a contact position determined by a voltage change of two opposing resistance films. Various detection means such as a resistance film type touch panel to be identified and an electromagnetic induction type touch panel to identify a contact position by detecting electromagnetic induction caused by contact of a contact object with the display unit may be used.
The electronic blackboard 2 includes an electronic pen controller 116. This electronic pen controller 116 communicates with the electronic pen 4 to determine whether or not there is a pen tip touch or a pen butt touch on the display 3. It should be noted that the electronic pen controller 116 may determine whether or not the user grips the part of the electronic pen 4 as well as the other electronic pen part, as well as the pen tip and the bottom of the electronic pen 4.
Further, the electronic blackboard 2 includes the CPU 101, ROM 102, RAM 103, SSD 104, network controller 105, external storage controller 106, capture device 111, GPU 112, sensor controller 114, and electronic pen controller 116 as shown in FIG. A bus line 120 such as an address bus or a data bus for electrical connection is provided.
The program for the electronic blackboard 2 may be recorded and distributed on a computer-readable recording medium such as a CD-ROM.

<電子黒板の機能構成>
続いて、図3乃至図12を用いて、電子黒板の機能構成について説明する。なお、先ずは、図3を用いて、電子黒板2の全体的な機能構成について説明する。図3は、電子黒板の機能ブロック図である。
電子黒板2は、図2に示されているハードウェア構成及びプログラムによって、図3にされている各機能構成を有する。電子黒板2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。また、電子黒板2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。クライアント部20及びサーバ部90は、電子黒板2の1台の筐体内で実現される機能である。そして、電子黒板2が主催装置となる場合には、この電子黒板2では、クライアント部20とサーバ部90が実現される。また、電子黒板2が参加装置となる場合には、この電子黒板2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図1において、電子黒板2aが主催装置で、電子黒板2bが参加装置となる場合、電子黒板2aのクライアント部20は、同じ電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2bのクライアント部20と通信を行う。一方、電子黒板2bのクライアント部20は、他の電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2aのクライアント部と通信を行う。
<Functional configuration of electronic blackboard>
Next, the functional configuration of the electronic blackboard will be described with reference to FIGS. First, the overall functional configuration of the electronic blackboard 2 will be described with reference to FIG. FIG. 3 is a functional block diagram of the electronic blackboard.
The electronic blackboard 2 has the functional configurations shown in FIG. 3 by the hardware configuration and program shown in FIG. The electronic blackboard 2 can be a “host device” that starts the remote sharing process first, and can also be a “participating device” that participates in the remote sharing process that has already started. The electronic blackboard 2 is roughly composed of both the client unit 20 and the server unit 90. The client unit 20 and the server unit 90 are functions realized in one housing of the electronic blackboard 2. When the electronic blackboard 2 is a hosting device, the electronic blackboard 2 implements the client unit 20 and the server unit 90. Further, when the electronic blackboard 2 is a participating device, in the electronic blackboard 2, the client unit 20 is realized, but the server unit 90 is not realized. That is, in FIG. 1, when the electronic blackboard 2a is the hosting device and the electronic blackboard 2b is the participating device, the client unit 20 of the electronic blackboard 2a receives the other via the server unit 90 realized in the same electronic blackboard 2a. Communicate with the client unit 20 of the electronic blackboard 2b. On the other hand, the client unit 20 of the electronic blackboard 2b communicates with the client units of the other electronic blackboard 2a via the server unit 90 realized in the other electronic blackboard 2a.

<クライアント部20の機能構成>
続いて、主に図3乃至図4を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、位相調整制御部29、画像処理部30、及び通信制御部60を有する。
このうち、映像取得部21は、ケーブル10に接続された映像出力機器の出力映像を取得する。映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。
座標検知部22は、ディスプレイ3上でユーザによって生じたイベント(ディスプレイ3上にユーザの手Hがタッチされた動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。
自動調整部23は、電子黒板2の起動時に起動され、接触センサ115が座標検知部22に適切な値を出力できるように、接触センサ115の光センサ方式におけるセンサーカメラの画像処理のパラメータを調整する。
<Functional configuration of client unit 20>
Next, the functional configuration of the client unit 20 will be described mainly using FIGS. 3 to 4. The client unit 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, a video superimposition unit 28, and a phase adjustment control unit. 29, an image processing unit 30, and a communication control unit 60.
Among these, the video acquisition unit 21 acquires the output video of the video output device connected to the cable 10. When the video acquisition unit 21 receives an image signal from the video output device, the video acquisition unit 21 analyzes the image signal, and updates the resolution of the image frame that is a display image of the video output device formed by the image signal. Image information such as frequency is derived and output to the image acquisition unit 31.
The coordinate detection unit 22 detects the coordinate position of an event (such as an operation in which the user's hand H is touched on the display 3) generated by the user on the display 3. The coordinate detection unit 22 also detects the touched area.
The automatic adjustment unit 23 is activated when the electronic blackboard 2 is activated, and adjusts the image processing parameters of the sensor camera in the optical sensor method of the contact sensor 115 so that the contact sensor 115 can output an appropriate value to the coordinate detection unit 22. To do.

接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン3のペン尻が押下(タッチ)された動作等)を検出する。
イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。
ここで、「ストローク描画」は、ディスプレイ3上に図12に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。
The contact detection unit 24 detects an event (such as an operation in which the pen tip of the electronic pen 4 or the pen tip of the electronic pen 3 is pressed (touched) on the display 3).
The event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 to each event of stroke drawing, UI operation, and gesture operation.
Here, “stroke drawing” is performed when the user presses the electronic pen 4 on the display 3 when a stroke image (B) described later shown in FIG. 12 is displayed on the display 3. In this state, the electronic pen 4 is moved and finally the electronic pen 4 is released from the display 3. By this stroke drawing, for example, alphabets “S” and “T” are drawn on the display 3. The “stroke drawing” includes not only drawing an image but also an event of deleting an already drawn image or editing a drawn image.

「UI操作」は、ディスプレイ3上に図12に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。
「ジェスチャ操作」は、ディスプレイ3上に図12に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。
The “UI operation” is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H when a UI image (A) (described later) shown in FIG. . By this UI operation, for example, the color or width of a line drawn by the electronic pen 4 is set.
The “gesture operation” is an event in which the user touches or moves the display 3 with the hand H when a stroke image (B) described later shown in FIG. is there. By this gesture operation, for example, by moving the hand H while the user touches the display 3 with the hand H, the image can be enlarged (or reduced), the display area can be changed, or the page can be switched. it can.

操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素に従って、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。
ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたものに対応した操作を実行する。
映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として映像出力機器(ディスプレイ3等)に対して表示する。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャ・イン・ピクチャする。更に、映像重畳部28は、ピクチャ・イン・ピクチャされてディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるための切り替えを行う。
The operation processing unit 26 executes various operations according to the UI element in which the event is generated, from what is determined as the UI operation by the event distribution unit 25. Examples of the UI element include a button, a list, a check box, and a text box.
The gesture processing unit 27 performs an operation corresponding to what is determined as a gesture operation by the event distribution unit 25.
The video superimposing unit 28 displays an image superimposed by a display superimposing unit 36 (to be described later) on the video output device (display 3 or the like) as a video. In addition, the video superimposing unit 28 performs picture-in-picture of the video sent from another video output device (such as the video conference terminal 7) with respect to the video from the video output device (such as the notebook PC 6). Further, the video superimposing unit 28 performs switching for displaying the video that is picture-in-picture and displayed on a part of the display 3 on the entire display 3.

位相調整制御部29は、輝度変化量に基づいて、サンプリングクロック信号の位相を決定し、映像取得部21から当該位相を出力させる。
画像処理部30は、図12に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。
このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図12に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。
ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストローク描画による画像は、図12に示されているストローク画像(B)に相当する。また、このストローク描画に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、操作データ記憶部840に記憶される。
The phase adjustment control unit 29 determines the phase of the sampling clock signal based on the luminance change amount, and causes the video acquisition unit 21 to output the phase.
The image processing unit 30 performs superimposing processing of each image layer as shown in FIG. The image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a display superimposition unit 36, a page processing unit 37, a file processing unit 40, page data. A storage unit 300 and a remote license management table 310 are provided.
Among these, the image acquisition unit 31 acquires each frame as an image from the video acquired by the video acquisition unit 21. The image acquisition unit 31 outputs the image data to the page processing unit 37. This image corresponds to the output image (C) from the video output device (notebook PC 6 or the like) shown in FIG.
The stroke processing unit 32 draws an image, deletes the drawn image, or edits the drawn image based on the event related to the stroke drawing assigned by the event distribution unit 25. The image by the stroke drawing corresponds to the stroke image (B) shown in FIG. In addition, the results of drawing, deleting, and editing an image based on the stroke drawing are stored in the operation data storage unit 840 as operation data described later.

UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図12に示されているUI画像(A)に相当する。
背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図12に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。
レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及びUI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。
表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、及びUI画像生成部33(背景生成部34)から出力された各画像のレイアウトを行う。
The UI image generation unit 33 generates a UI (user interface) image set in advance on the electronic blackboard 2. This UI image corresponds to the UI image (A) shown in FIG.
The background generation unit 34 receives media data from the page data read from the page data storage unit 300 by the page processing unit 37 from the page processing unit 37. The background generation unit 34 outputs the received media data to the display superimposing unit 36. The image based on the media data corresponds to the background image (D) shown in FIG. The pattern of the background image (D) is plain or grid display.
The layout management unit 35 provides layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the background generation unit 34) to the display superimposing unit 36. I manage. Thereby, the layout management unit 35 causes the display superimposing unit 36 to display the output image (C) and the stroke image (B) in the UI image (A) and the background image (D). It is possible to instruct whether to hide.
Based on the layout information output from the layout management unit 35, the display superimposing unit 36 displays the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (background generation unit 34). Do.

ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像(B)のデータは、図5に示されているストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。出力画像(C)のデータは、図5に示されているメディアデータIDで示されているメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。
また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、背景生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。
The page processing unit 37 stores the data of the stroke image (B) and the data of the output image (C) in one page data and stores them in the page data storage unit 300. The data of the stroke image (B) forms part of page data as the stroke arrangement data (each stroke data) indicated by the stroke arrangement data ID shown in FIG. The data of the output image (C) forms part of the page data as the media data indicated by the media data ID shown in FIG. Then, when this media data is read from the page data storage unit 300, it is handled as data of the background image (D).
Further, the page processing unit 37 transmits the media data of the once stored page data to the display superimposing unit 36 via the background generating unit 34 so that the video superimposing unit 28 displays the background image (D). 3 can be displayed again. The page processing unit 37 can return the stroke arrangement data (each stroke data) in the page data to the stroke processing unit 32 so that the stroke can be re-edited.

更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。
即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。
Further, the page processing unit 37 can delete or duplicate page data.
That is, the data of the output image (C) displayed on the display 3 when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300 and then When read from the page data storage unit 300, it is read as media data indicating the background image (D). Then, the page processing unit 37 outputs stroke arrangement data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32. Further, the page processing unit 37 outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the background generation unit 34.

表示重畳部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトに従って重畳する。これにより、図12に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。
また、表示重畳部36は、図12に示されている画像(C)と画像(D)を切り替えて、画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、電子黒板2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、画像(C)を重畳対象から外し、画像(D)を表示させることができる。この場合に、また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。
The display superimposing unit 36 includes an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and a background generation unit 34. The background image (D) is superimposed according to the layout designated by the layout management unit 35. Thus, as shown in FIG. 12, each of the UI image (A), the stroke image (B), the output image (C), and the background image (D) in the order in which the user can see each image even if they overlap. It has Leia composition.
Moreover, the display superimposing unit 36 can also superimpose the image (A) and the image (B) exclusively by switching the image (C) and the image (D) shown in FIG. . For example, when the cable 10 between the electronic blackboard 2 and the video output device (notebook PC 6 or the like) is disconnected while the image (A), the image (B), and the image (C) are initially displayed. As specified by the layout management unit 35, the image (C) can be removed from the superimposition target and the image (D) can be displayed. In this case, the display superimposing unit 36 also performs display enlargement, display reduction, and display area movement processing.

ページデータ記憶部300は、図5に示されているようなページデータを記憶する。図5は、ページデータを示す概念図である。ページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、図5乃至8に分けて、ページデータの内容を説明する。
ページデータは、図5に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開示時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。ストローク配列データは、後述の図12に示されているストローク画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、後述の16に示されている背景画像(D)がディスプレイ3上に表示されるためのデータである。
The page data storage unit 300 stores page data as shown in FIG. FIG. 5 is a conceptual diagram showing page data. The page data is data for one page displayed on the display 3 (stroke arrangement data (each stroke data) and media data). Since there are many types of parameters included in the page data, the contents of the page data will be described here with reference to FIGS.
As shown in FIG. 5, the page data includes a page data ID for identifying an arbitrary page, a disclosure time indicating the start time of display of this page, rewriting of the contents of the page by a stroke, a gesture, and the like. Are associated with the end time indicating the time when the operation is stopped, the stroke arrangement data ID for identifying the stroke arrangement data generated by the stroke of the electronic pen 4 or the user's hand H, and the media data ID for identifying the media data. Is remembered. The stroke arrangement data is data for displaying a stroke image (B) shown in FIG. The media data is data for displaying a background image (D) shown in 16 described later on the display 3.

このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、ストロークデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によってアルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。
また、ストローク配列データは、図6に示されているように詳細な情報を示している。図6は、ストローク配列データを示す概念図である。図6に示されているように、1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データIDを示している。
With such page data, for example, when the user draws the alphabet “S” with the electronic pen 4, the stroke is written in one stroke, and therefore, one stroke data ID is displayed and one letter of the alphabet [S] is indicated. However, when the user draws the alphabet “T” with the electronic pen 4, since it is a two-stroke writing, the one letter “T” is indicated by two stroke data IDs.
The stroke arrangement data shows detailed information as shown in FIG. FIG. 6 is a conceptual diagram showing stroke arrangement data. As shown in FIG. 6, one stroke arrangement data is represented by a plurality of stroke data. One stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the start time of writing one stroke, an end time indicating the end time of writing one stroke, the color of the stroke, A stroke width and coordinate array data ID for identifying an array of stroke passing points are shown.

更に、この座標配列データは、図7に示されているように詳細な情報を示している。図7は、座標配列データを示す概念図である。図7に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開示時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。即ち、図7に示されている1点の集まりが、図6に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。   Further, the coordinate array data shows detailed information as shown in FIG. FIG. 7 is a conceptual diagram showing coordinate array data. As shown in FIG. 7, the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 3, and a time difference (ms from the disclosure time of the stroke when the one point is passed) ) And writing pressure information of the electronic pen 4 at this one point. That is, a collection of one point shown in FIG. 7 is represented by one coordinate array data shown in FIG. For example, when the user draws the alphabet “S” with the electronic pen 4, it is drawn with a single stroke, but passes through a plurality of passing points until the drawing of “S” is completed. Information.

また、図5に示されているページデータのうちのメディアデータは、図8に示されているように詳細な情報を示している。図8は、メディアデータを示す概念図である。図8に示されているように、メディアデータは、図5に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値、Y座標値)=(0、0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。
また、図3に戻り、遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。
Further, the media data in the page data shown in FIG. 5 shows detailed information as shown in FIG. FIG. 8 is a conceptual diagram showing media data. As shown in FIG. 8, the media data is stored in the page data storage unit 300 from the page processing unit 37, the media data ID in the page data shown in FIG. The recording time, the position of the image displayed on the display 3 by the page data (X coordinate value, Y coordinate value), the size of the image (width, height), and data indicating the contents of the media data are shown in association with each other. Has been. Among these, the position of the image displayed on the display 3 by the page data is displayed by the page data when the coordinates of the upper left corner of the display 3 are (X coordinate value, Y coordinate value) = (0, 0). The position of the upper left corner of the image to be displayed is shown.
Returning to FIG. 3, the remote license management table 310 manages license data necessary to execute the remote sharing process.

<ファイル処理部40の機能構成>
続いて、図4を用いて、図3に示されているファイル処理部40の機能構成を説明する。なお、図4は、ファイル処理部の機能ブロック図である。
ファイル処理部40は、リカバリ部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、及び設定ファイル出力部49bを有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430、及び接続先管理テーブル440を有している。
このうち、リカバリ処理部41は、電子黒板2が異常終了した後に、異常終了を検知し、未保存のページデータを復旧する。例えば、正常終了の場合は、ページデータがPDFファイルとしてファイル処理部40を介してUSB5に記録されるが、電源がダウンした等の異常終了の場合は、ページデータがページデータ記憶部300に記録されたままになっている。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出すことで復旧させる。
ファイル入力部42aは、USBメモリ5から、PDFファイルを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。
<Functional Configuration of File Processing Unit 40>
Next, the functional configuration of the file processing unit 40 shown in FIG. 3 will be described with reference to FIG. FIG. 4 is a functional block diagram of the file processing unit.
The file processing unit 40 includes a recovery unit 41, a file input unit 42a, a file output unit 42b, a file conversion unit 43, a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, and a setting management unit 48. A setting file input unit 49a and a setting file output unit 49b. Furthermore, the file processing unit 40 includes an address book management table 410, a backup data storage unit 420, a setting file storage unit 430, and a connection destination management table 440.
Among these, the recovery processing unit 41 detects the abnormal end after the electronic blackboard 2 ends abnormally, and recovers the unsaved page data. For example, in the case of a normal end, the page data is recorded as a PDF file on the USB 5 via the file processing unit 40, but in the case of an abnormal end such as when the power is down, the page data is recorded in the page data storage unit 300. Has been done. Therefore, when the power is turned on again, the recovery processing unit 41 recovers by reading the page data from the page data storage unit 300.
The file input unit 42a reads a PDF file from the USB memory 5 and stores each page in the page data storage unit 300 as page data.

ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。
ファイル出力部42bは、ファイル変換部42によって出力されたPDFファイルをUSBメモリ5に記録する。
ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示重畳部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザによるタッチパネル等の入力装置の操作により、宛先の選択を受け付けることによって決定される。アドレス帳管理テーブル410には、図11に示されているように、宛先の名前及び宛先の電子メールのメールアドレスが関連付けて管理されている。また、ファイル送信部44が、ユーザによるタッチパネル等の入力装置の操作により、宛先としてのメールアドレスの入力を受け付けることもできる。
アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。
The file conversion unit 43 converts the page data stored in the page data storage unit 300 into a PDF format file.
The file output unit 42 b records the PDF file output by the file conversion unit 42 in the USB memory 5.
The file transmission unit 44 transmits the PDF file generated by the file conversion unit 43 by attaching it to an electronic mail. The transmission destination of the file is displayed by displaying the contents of the address book management table 410 on the display 3 by the display superimposing unit 36, and the file transmitting unit 44 accepts the selection of the destination by the operation of the input device such as a touch panel by the user. It is determined. In the address book management table 410, as shown in FIG. 11, the name of the destination and the mail address of the destination e-mail are managed in association with each other. Further, the file transmission unit 44 can accept an input of a mail address as a destination by an operation of an input device such as a touch panel by the user.
The address book input unit 45 reads a list file of e-mail addresses from the USB memory 5 and manages it in the address book management table 410.

バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。バックアップデータは、図10に示されているように、PDF形式で記憶される。
バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティーのためにパスワードが入力される。
設定管理部48は、電子黒板2の各種設定情報を設定ファイル記憶部430に記憶したり読み出したりして管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。
設定ファイル出力部49bは、電子黒板2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティーによって、ユーザは中身を見ることができない。
設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を電子黒板の各種設定に反映させる。
アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、接続先管理テーブル440に管理する。
The backup processing unit 46 performs backup by storing the file output by the file output unit 42 b and the file transmitted by the file transmission unit 44 in the backup data storage unit 420. If the user does not set backup, backup processing is not performed. The backup data is stored in the PDF format as shown in FIG.
The backup output unit 47 stores the backed up file in the USB memory 5. At the time of storage, a password is input for security by the operation of an input device such as a touch panel by the user.
The setting management unit 48 stores and reads various setting information of the electronic blackboard 2 in the setting file storage unit 430 for management. Examples of the various setting information include network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, and backup settings. The network setting is, for example, an IP address setting of the electronic blackboard 2, a net mask setting, a default gateway setting, a DNS (Domain Name System) setting, or the like.
The setting file output unit 49b records various setting information of the electronic blackboard 2 in the USB memory 5 as a setting file. Note that the settings file cannot be viewed by the user due to security.
The setting file input unit 49a reads a setting file stored in the USB memory 5 and reflects various setting information on various settings of the electronic blackboard.
The address book input unit 50 reads a list file of connection destination IP addresses for remote sharing processing from the USB memory 5 and manages it in the connection destination management table 440.

<位相調整制御>
図13は、本発明の実施形態に係る画像処理装置の特徴的な構成を示すブロック図である。
映像取得部21は、PLL回路21a、位相遅延回路21b、A/D変換回路21cを備えている。
PLL回路21aは、例えばノートPC6から入力される映像信号であるR/G/B信号に付加されている水平同期信号(Hsync)に基づいて、クロック信号を生成する。PLL回路21aは、VCO回路により水平同期信号の周波数fhよりも極めて高い周波数fを有するクロック信号を生成し、クロック信号の周波数fを整数値で分周した信号と水平同期信号とを比較することで、差分電圧を求めてVCO回路に帰還させる。これにより、水平同期信号の周波数fhにロックした周波数のクロック信号を生成することができる。なお、PLL回路21aは、デジタルPLL回路であってもよい。
位相遅延回路21bは、複数の遅延素子が直列に接続された遅延回路と、位相番号に応じて遅延後の夫々の位相を有するクロック信号を選択するセレクタ回路とを備えている。位相遅延回路21bは、PLL回路21aにより生成されたクロック信号を各遅延素子に通過させ、各遅延素子の出力端子から出力される遅延信号をセレクタ回路により選択してサンプリングクロック信号としてA/D変換回路21cに出力する。このセレクタ回路に対して位相番号を設定することで、所望の位相を有するサンプリングクロック信号をA/D変換回路21cに出力させることができる。
<Phase adjustment control>
FIG. 13 is a block diagram showing a characteristic configuration of the image processing apparatus according to the embodiment of the present invention.
The video acquisition unit 21 includes a PLL circuit 21a, a phase delay circuit 21b, and an A / D conversion circuit 21c.
The PLL circuit 21a generates a clock signal based on a horizontal synchronization signal (Hsync) added to, for example, an R / G / B signal that is a video signal input from the notebook PC 6. The PLL circuit 21a generates a clock signal having a frequency f extremely higher than the frequency fh of the horizontal synchronization signal by the VCO circuit, and compares the signal obtained by dividing the frequency f of the clock signal by an integer value with the horizontal synchronization signal. Thus, the differential voltage is obtained and fed back to the VCO circuit. As a result, a clock signal having a frequency locked to the frequency fh of the horizontal synchronization signal can be generated. Note that the PLL circuit 21a may be a digital PLL circuit.
The phase delay circuit 21b includes a delay circuit in which a plurality of delay elements are connected in series, and a selector circuit that selects clock signals having respective phases after delay according to the phase number. The phase delay circuit 21b passes the clock signal generated by the PLL circuit 21a to each delay element, selects the delay signal output from the output terminal of each delay element by the selector circuit, and performs A / D conversion as a sampling clock signal. Output to the circuit 21c. By setting a phase number for this selector circuit, a sampling clock signal having a desired phase can be output to the A / D conversion circuit 21c.

A/D変換回路21cは、例えばノートPC6から入力される映像信号であるR/G/B信号の夫々に対して、サンプリングクロック信号を用いてサンプリングしてアナログ/デジタル変換を行い、デジタル化されたR/G/B画像データを画像処理部30に出力する。
画像処理部30は、RAM103に設けられたフレームメモリF1、F2に記憶した映像信号について、2つのフレーム間の輝度変化量を算出する。
画像処理部30は、映像取得部21から入力される画像データの2フレーム間の同一座標上での画素毎の差分値を全て加算した値を全画素数で除算した平均値として輝度変化量ΔLを算出させ、位相番号xに関連付けてRAM103に記憶させる。
画像処理部30は、映像信号に含まれる水平同期信号に基づいて、映像信号の解像度が変更されたか否かを検知する解像度検知部30aを備えている。
詳しくは、解像度検知部30aは、映像信号に含まれる水平同期信号の数を計数して垂直解像度とし、且つ1つの水平同期信号の期間を計測して擬似的な水平解像度とし、垂直解像度と水平解像度を解像度としてRAM103に記憶しておく。前回の解像度と今回の解像度とが一致した場合に解像度変更フラグを0に設定し、両者が不一致の場合に解像度変更フラグを1に設定する。解像度検知部30aは、解像度の変更が検知された場合に解像度変更フラグを1に設定して出力し、一方、解像度の変更がない場合に解像度変更フラグを0に設定して出力する。
The A / D conversion circuit 21c, for example, samples each R / G / B signal that is a video signal input from the notebook PC 6 by using a sampling clock signal, performs analog / digital conversion, and is digitized. The R / G / B image data is output to the image processing unit 30.
The image processing unit 30 calculates a luminance change amount between two frames for the video signals stored in the frame memories F1 and F2 provided in the RAM 103.
The image processing unit 30 adds a luminance change amount ΔL as an average value obtained by dividing all the difference values for each pixel on the same coordinate between two frames of the image data input from the video acquisition unit 21 by the total number of pixels. Is stored in the RAM 103 in association with the phase number x.
The image processing unit 30 includes a resolution detection unit 30a that detects whether or not the resolution of the video signal has been changed based on a horizontal synchronization signal included in the video signal.
Specifically, the resolution detection unit 30a counts the number of horizontal synchronization signals included in the video signal to obtain a vertical resolution, and measures the period of one horizontal synchronization signal to obtain a pseudo horizontal resolution. The resolution is stored in the RAM 103 as the resolution. The resolution change flag is set to 0 when the previous resolution matches the current resolution, and the resolution change flag is set to 1 when they do not match. The resolution detection unit 30a sets the resolution change flag to 1 when a change in resolution is detected, and outputs it, while setting the resolution change flag to 0 when there is no change in resolution.

位相調整制御部29は、輝度変化量に基づいて、サンプリングクロック信号の位相を決定し、映像取得部21から当該位相を出力させる。位相調整制御部29は、輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を前記映像取得部に生成させる。
位相調整制御部29は、輝度変化量が最大になるサンプリングクロック信号の位相を表す位相番号を当該輝度変化量とともにRAM103に記憶し、当該位相を反転させた反転位相を表す位相番号を映像取得部21に設定する。位相調整制御部29は、所定の期間が経過した後に、今回の輝度変化量が最大になる値を求め、今回の輝度変化量が最大になる値がRAM103から取得した前回の輝度変化量が最大になった値よりも大きい場合に、映像取得部21への設定を更新する。
位相調整制御部29は、今回の輝度変化量が最大になる値がRAM103から取得した前回の輝度変化量が最大になった値よりも小さい場合に、映像取得部21への設定を更新しないように制御する。位相調整制御部29は、解像度検知部30aにより映像信号の解像度が変更されたことが検知された場合には、映像取得部21への位相番号に設定の更新を再開する。
The phase adjustment control unit 29 determines the phase of the sampling clock signal based on the luminance change amount, and causes the video acquisition unit 21 to output the phase. The phase adjustment control unit 29 obtains the phase of the sampling clock signal that maximizes the amount of change in luminance, and causes the video acquisition unit to generate a sampling clock signal having an inverted phase obtained by inverting the phase.
The phase adjustment control unit 29 stores the phase number representing the phase of the sampling clock signal that maximizes the luminance change amount in the RAM 103 together with the luminance change amount, and the video acquisition unit displays the phase number representing the inverted phase obtained by inverting the phase. Set to 21. The phase adjustment control unit 29 obtains a value at which the current luminance change amount is maximized after a predetermined period elapses, and the value at which the current luminance change amount is maximized is the previous luminance change amount acquired from the RAM 103. When the value is larger than the value obtained, the setting in the video acquisition unit 21 is updated.
The phase adjustment control unit 29 does not update the setting in the video acquisition unit 21 when the value at which the current luminance change amount is maximum is smaller than the value at which the previous luminance change amount acquired from the RAM 103 is maximum. To control. When the resolution detection unit 30a detects that the resolution of the video signal has been changed, the phase adjustment control unit 29 restarts the setting update to the phase number to the video acquisition unit 21.

図14は、本発明の実施形態に係る位相調整制御部29のメイン動作を示すフローチャートである。図15は、本発明の実施形態に係る位相調整制御部29のサブルーチンの動作を示すフローチャートである。なお、図14、15に示すフローチャートで表されたプログラムは、ROM102に記憶されている。CPU101は、ROM102からオペレーティングシステムOSを読み出してRAM103上に展開してOSを起動し、OS管理下において、ROM102からプログラムを読み出し、位相調整処理を実行する。
本実施形態では、外部から接続されたノートPC6から取り込んだ表示画像のちらつきや揺らぎを防止するため、ノートPCから画像処理システムにアナログ映像信号が入力されたとき、映像取得部21で生成されるサンプリングクロック信号の位相を調整する。
FIG. 14 is a flowchart showing a main operation of the phase adjustment control unit 29 according to the embodiment of the present invention. FIG. 15 is a flowchart showing an operation of a subroutine of the phase adjustment control unit 29 according to the embodiment of the present invention. The programs represented by the flowcharts shown in FIGS. 14 and 15 are stored in the ROM 102. The CPU 101 reads the operating system OS from the ROM 102, develops it on the RAM 103, starts up the OS, reads the program from the ROM 102 under the management of the OS, and executes phase adjustment processing.
In the present embodiment, in order to prevent flickering and fluctuation of a display image captured from a notebook PC 6 connected from the outside, when an analog video signal is input from the notebook PC to the image processing system, it is generated by the video acquisition unit 21. Adjust the phase of the sampling clock signal.

図14を参照して、位相調整制御部29のメイン動作について説明する。
まず、ステップS100では、位相調整制御部29は、タイマから読み出した現在の日時、RAM103から読み出した前回の位相調整処理の日時に基づいて、前回の位相調整処理の時点から一定期間(例えば、数時間、数日など)経過したか否かを判断する。位相調整制御部29は、一定期間が経過した場合には、ステップS110に進む一方、一定期間が経過していない場合には、ステップS105に進む。
次いで、ステップS105では、位相調整制御部29は、映像信号の解像度の変更があるか否かを判断する。ここで、解像度検知部30aから取得した解像度変更フラグが1である場合には解像度の変更が検知されたので、ステップS110に進む。一方、解像度変更フラグが0である場合には解像度の変更がないので、ステップS100に戻る。
ステップS110では、位相調整制御部29は、位相調整処理のサブルーチンをコールして図15に示すステップS5に進む。
The main operation of the phase adjustment control unit 29 will be described with reference to FIG.
First, in step S100, the phase adjustment control unit 29, based on the current date and time read from the timer and the date and time of the previous phase adjustment process read from the RAM 103, for a certain period (for example, several Determine whether the time, days, etc. have passed. The phase adjustment control unit 29 proceeds to step S110 when the certain period has elapsed, and proceeds to step S105 when the certain period has not elapsed.
Next, in step S105, the phase adjustment control unit 29 determines whether there is a change in the resolution of the video signal. Here, when the resolution change flag acquired from the resolution detection unit 30a is 1, since the change of the resolution is detected, the process proceeds to step S110. On the other hand, if the resolution change flag is 0, the resolution is not changed, and the process returns to step S100.
In step S110, the phase adjustment control unit 29 calls a phase adjustment processing subroutine and proceeds to step S5 shown in FIG.

図15を参照して、位相調整処理のサブルーチンの動作について説明する。
まず、ステップS5では、位相調整制御部29は、サンプリングクロック信号の初期位相として位相番号x=0に設定する。ここで、位相調整制御部29は、サンプリングクロック信号の初期位相として位相番号x=0を映像取得部21に設定する。この結果、位相遅延回路21bでは位相番号x=0に応じてセレクタ回路が1段目の遅延素子の入力信号を選択して出力し、サンプリングクロック信号が初期位相(x=0)に変更される。これにより、一旦、映像取得部21により生成されるサンプリングクロック信号の位相を固定する。
次いで、ステップS10では、位相調整制御部29は、画像処理部30がフレームメモリF1、F2に映像の2フレーム分の全画素の輝度を取得させる。なお、ここでフレームとは、単位時間の映像(コマ)を指す。
次いで、ステップS15では、位相調整制御部29は、画像処理部30が取得した2フレーム間の同一座標上での画素毎の差分値を加算した値を全画素数で除算した平均値として輝度変化量ΔLを算出させ、位相番号xに関連付けてRAM103のテーブル(表1)に記憶させる。
With reference to FIG. 15, the operation of the subroutine of the phase adjustment process will be described.
First, in step S5, the phase adjustment control unit 29 sets the phase number x = 0 as the initial phase of the sampling clock signal. Here, the phase adjustment control unit 29 sets the phase number x = 0 in the video acquisition unit 21 as the initial phase of the sampling clock signal. As a result, in the phase delay circuit 21b, the selector circuit selects and outputs the input signal of the first-stage delay element according to the phase number x = 0, and the sampling clock signal is changed to the initial phase (x = 0). . Thereby, the phase of the sampling clock signal generated by the video acquisition unit 21 is temporarily fixed.
Next, in step S10, in the phase adjustment control unit 29, the image processing unit 30 causes the frame memories F1 and F2 to acquire the luminance of all the pixels for two frames of the video. Here, a frame refers to a video (frame) of unit time.
Next, in step S15, the phase adjustment control unit 29 changes the luminance as an average value obtained by dividing the difference value for each pixel on the same coordinate between the two frames acquired by the image processing unit 30 by the total number of pixels. The amount ΔL is calculated and stored in the table (Table 1) of the RAM 103 in association with the phase number x.

Figure 2016014834
Figure 2016014834

次いで、ステップS20では、位相調整制御部29は、位相番号xをインクリメントする。
次いで、ステップS25では、位相調整制御部29は、インクリメント後の位相番号xが必要サンプル数を表す基準値nに到達したか否かを判断する。ここで、位相調整制御部29は、位相番号xが基準値nに到達していない場合には、ステップS30に進む。一方、位相調整制御部29は、位相番号xが基準値nに到達した場合には、ステップS35に進む。
ステップS30では、位相調整制御部29は、インクリメント後の位相番号xに応じて映像取得部21にサンプリングクロック信号の位相を変更させるため、位相番号xを映像取得部21に設定し、ステップS10の処理に戻る。この結果、位相遅延回路21bでは位相番号xに応じてセレクタ回路がx段目の遅延素子の出力信号を選択して出力し、サンプリングクロック信号の位相(x)が変更される。
Next, in step S20, the phase adjustment control unit 29 increments the phase number x.
Next, in step S25, the phase adjustment control unit 29 determines whether or not the incremented phase number x has reached a reference value n representing the required number of samples. Here, if the phase number x has not reached the reference value n, the phase adjustment control unit 29 proceeds to step S30. On the other hand, when the phase number x reaches the reference value n, the phase adjustment control unit 29 proceeds to step S35.
In step S30, the phase adjustment control unit 29 sets the phase number x in the video acquisition unit 21 in order to cause the video acquisition unit 21 to change the phase of the sampling clock signal in accordance with the incremented phase number x. Return to processing. As a result, in the phase delay circuit 21b, the selector circuit selects and outputs the output signal of the x-th delay element according to the phase number x, and the phase (x) of the sampling clock signal is changed.

一方、位相番号xが基準値nに到達した場合にステップS35では、位相調整制御部29は、RAM103のテーブル(表1)を参照し、2フレーム間の輝度変化量ΔLが最大となるときの位相番号xと、そのときの輝度変化量ΔLを求める。
次いで、ステップS40では、位相調整制御部29は、ステップS35で求めた今回の最大となった輝度変化量ΔLが、現時点で既にRAM103に記憶されている前回調整時の輝度変化量ΔLmaxよりも大きいか否かを判断する。ここで、位相調整制御部29は、今回の最大となった輝度変化量ΔLが前回調整時の輝度変化量ΔLmaxよりも大きい場合には、ステップS45に進む。一方、位相調整制御部29は、今回の最大となった輝度変化量ΔLが前回調整時の輝度変化量ΔLmax以下の場合には、処理を終了する。
今回の最大となった輝度変化量ΔLが前回調整時の輝度変化量ΔLmaxよりも大きい場合に、ステップS45では、位相調整制御部29は、今回の最大となった輝度変化量ΔLを輝度変化量ΔLmaxとしてRAM103に記憶する。
On the other hand, when the phase number x reaches the reference value n, in step S35, the phase adjustment control unit 29 refers to the table of the RAM 103 (Table 1), and the luminance change amount ΔL between the two frames is maximized. The phase number x and the luminance change amount ΔL at that time are obtained.
Next, in step S40, the phase adjustment control unit 29 determines that the maximum luminance change amount ΔL obtained in step S35 is larger than the luminance change amount ΔLmax during the previous adjustment that is already stored in the RAM 103 at the present time. Determine whether or not. Here, the phase adjustment control unit 29 proceeds to step S45 when the maximum luminance change amount ΔL is larger than the luminance change amount ΔLmax at the previous adjustment. On the other hand, the phase adjustment control unit 29 ends the process when the maximum luminance change amount ΔL is equal to or smaller than the luminance change amount ΔLmax at the previous adjustment.
When the current maximum luminance change amount ΔL is larger than the previous luminance change amount ΔLmax, in step S45, the phase adjustment control unit 29 determines the current maximum luminance change amount ΔL as the luminance change amount. It is stored in the RAM 103 as ΔLmax.

次いで、ステップS50では、位相調整制御部29は、映像取得部21の位相設定を、今回の最大となった輝度変化量ΔLを有する位相番号xが表す位相に対して、2/Tずらした位相に更新し、処理を終了する。ここで、Tはサンプリングクロック信号の周期を表すため、2/Tずらした位相は、サンプリングクロック信号の位相が半周期ずれた位相、すなわち、位相番号xが表す位相を反転した位相である。   Next, in step S50, the phase adjustment control unit 29 shifts the phase setting of the video acquisition unit 21 by 2 / T with respect to the phase represented by the phase number x having the maximum luminance change amount ΔL. To update the process. Here, since T represents the cycle of the sampling clock signal, the phase shifted by 2 / T is a phase in which the phase of the sampling clock signal is shifted by a half cycle, that is, a phase obtained by inverting the phase represented by the phase number x.

Figure 2016014834
Figure 2016014834

ここで、表2を参照して、位相テーブルについて説明する。
位相テーブルには、位相番号1からmに夫々対応した1周期内の各位相(°)、及び反転位相の番号を表す反転位相番号が記載されている。mは、映像取得部21の位相遅延回路を構成する一単位の遅延素子の遅延時間と、サンプリングクロック信号の周波数に応じて一意に決定される自然数であり、mは偶数であることが好ましい。
位相調整制御部29は、今回の最大となった輝度変化量ΔLを有する位相番号xに基づいて、位相テーブルから反転位相番号を読み出し、当該反転位相番号をサンプリングクロック信号の位相番号xとして映像取得部21に設定する。この結果、映像取得部21から出力されるサンプリングクロック信号の位相が反転位相に変更される。
なお、位相調整制御部29は、今回の最大となった輝度変化量ΔLを有する位相番号xを映像取得部21に設定し、且つ位相遅延回路21bのセレクタ回路から出力されるクロック信号の位相をインバータ回路に通過させて反転することにより、反転位相のサンプリングクロック信号を生成し、A/D変換回路21cに出力してもよい。
本実施形態によれば、一定期間おきに位相調整を実施するため、2フレーム間の同一位置上の画素間の輝度差が大きくなるタイミングで最も表示画像のちらつきや揺らぎが多くなる位相を特定でき、更に当該位相の反転位相を最適な位相として決定することができる。
また、前回までの位相調整で決定した位相よりも今回の位相が適切かどうかは、輝度変化量がより大きくなったときのみ適切と判断して更新するので、位相調整の回数を重ねることでより一層適切な位相を得ることができる。
Here, the phase table will be described with reference to Table 2.
In the phase table, each phase (°) in one cycle corresponding to each of the phase numbers 1 to m and an inverted phase number representing the inverted phase number are described. m is a natural number that is uniquely determined according to the delay time of one unit of delay elements constituting the phase delay circuit of the video acquisition unit 21 and the frequency of the sampling clock signal, and m is preferably an even number.
The phase adjustment control unit 29 reads out the inverted phase number from the phase table based on the phase number x having the luminance change amount ΔL that is the maximum this time, and acquires the video as the inverted phase number as the phase number x of the sampling clock signal. Set in part 21. As a result, the phase of the sampling clock signal output from the video acquisition unit 21 is changed to the inverted phase.
The phase adjustment control unit 29 sets the phase number x having the maximum luminance change amount ΔL in the video acquisition unit 21 and sets the phase of the clock signal output from the selector circuit of the phase delay circuit 21b. By passing the signal through the inverter circuit and inverting it, a sampling clock signal having an inverted phase may be generated and output to the A / D conversion circuit 21c.
According to the present embodiment, since the phase adjustment is performed at regular intervals, it is possible to specify the phase where the flickering or fluctuation of the display image is the largest at the timing when the luminance difference between the pixels at the same position between the two frames becomes large. Further, the inversion phase of the phase can be determined as the optimum phase.
In addition, whether or not the current phase is more appropriate than the phase determined in the previous phase adjustment is determined and updated only when the amount of change in luminance is larger. A more appropriate phase can be obtained.

図16は、RGB信号の位相とサンプリングクロック信号の位相の一例を示すタイミングチャートであり、RGB信号の位相に対してサンプリングクロック信号の位相の設定が適切な例を示している。
図16では、サンプリングクロック信号の立ち上がり時に、RGB信号の電圧レベルが平坦になって収束しているタイミングでサンプリング(サンプルアンドホールド)されるので、A/D変換回路21cによりA/D変換後に取得された画像データが安定していることを示している。
図17は、RGB信号の位相とサンプリングクロック信号の位相の一例を示すタイミングチャートであり、RGB信号の位相に対してサンプリング位相が不適切な例を示している。図17では、RGB信号の電圧レベルが不安定なタイミングでサンプリング(サンプルアンドホールド)されるので、A/D変換後に取得された画像データはフレーム毎にばらつくことがある。このような画像データをディスプレイに表示した場合、表示画像が揺らいで見えたり、ちらついて見えたりして、ユーザの視認性が悪くなるといった問題があった。このため、RGB信号の位相に対してサンプリングクロック信号の位相を適切な位相に調整する必要がある。
FIG. 16 is a timing chart showing an example of the phase of the RGB signal and the phase of the sampling clock signal, and shows an example in which the setting of the phase of the sampling clock signal is appropriate for the phase of the RGB signal.
In FIG. 16, sampling (sample and hold) is performed at the timing when the voltage level of the RGB signal is flattened and converged at the rising edge of the sampling clock signal, so that it is acquired after A / D conversion by the A / D conversion circuit 21c. This shows that the obtained image data is stable.
FIG. 17 is a timing chart showing an example of the phase of the RGB signal and the phase of the sampling clock signal, and shows an example in which the sampling phase is inappropriate with respect to the phase of the RGB signal. In FIG. 17, since the voltage level of the RGB signal is sampled (sampled and held) at an unstable timing, the image data obtained after A / D conversion may vary from frame to frame. When such image data is displayed on the display, there is a problem in that the display image appears to fluctuate or flicker, resulting in poor visibility for the user. For this reason, it is necessary to adjust the phase of the sampling clock signal to an appropriate phase with respect to the phase of the RGB signal.

<本発明の実施態様例と効果>
<第1態様>
本態様の画像処理装置は、映像信号を取得するとともに、映像信号に基づいてサンプリングクロック信号を生成する映像取得部21と、映像信号の2つのフレーム間の輝度変化量を算出する画像処理部30と、輝度変化量に基づいて、サンプリングクロック信号の位相を決定し、映像取得部21から当該位相を出力させる位相調整制御部29と、を備え、位相調整制御部29は、輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を映像取得部21に生成させることを特徴とする。
本態様によれば、映像信号の2つのフレーム間の輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を映像取得部に生成させることで、表示画像のちらつきや揺らぎを最大限に防止することができる。この結果、ユーザの視認性を良くすることができる。
<Examples of Embodiments and Effects of the Present Invention>
<First aspect>
The image processing apparatus according to this aspect acquires a video signal, generates a sampling clock signal based on the video signal, and an image processing unit 30 that calculates a luminance change amount between two frames of the video signal. And a phase adjustment control unit 29 that determines the phase of the sampling clock signal based on the luminance change amount and outputs the phase from the video acquisition unit 21, and the phase adjustment control unit 29 has the maximum luminance change amount. The phase of the sampling clock signal to be obtained is obtained, and the video acquisition unit 21 is caused to generate a sampling clock signal having an inverted phase obtained by inverting the phase.
According to this aspect, the phase of the sampling clock signal that maximizes the amount of luminance change between two frames of the video signal is obtained, and the video acquisition unit generates a sampling clock signal having an inverted phase obtained by inverting the phase. The flickering and fluctuation of the display image can be prevented to the maximum. As a result, the visibility of the user can be improved.

<第2態様>
本態様の位相調整制御部29は、輝度変化量が最大になるサンプリングクロック信号の位相を表す位相番号を当該輝度変化量とともに記憶するRAM103と、当該位相を反転させた反転位相を表す位相番号を映像取得部21に設定する設定手段(ステップS50)と、を備えたことを特徴とする。
本態様によれば、輝度変化量が最大になるサンプリングクロック信号の位相を表す位相番号を当該輝度変化量とともに記憶しておくことができ、当該位相を反転させた反転位相を表す位相番号を映像取得部21に設定することで、表示画像のちらつきや揺らぎを最大限に防止することができる。
<Second aspect>
The phase adjustment control unit 29 of this aspect stores the RAM 103 that stores the phase number representing the phase of the sampling clock signal that maximizes the luminance change amount together with the luminance change amount, and the phase number that represents the inverted phase obtained by inverting the phase. And setting means (step S50) for setting in the video acquisition unit 21.
According to this aspect, the phase number representing the phase of the sampling clock signal that maximizes the amount of change in luminance can be stored together with the amount of change in luminance, and the phase number representing the inverted phase obtained by inverting the phase can be stored in the video. By setting the acquisition unit 21, flickering or fluctuation of the display image can be prevented to the maximum.

<第3態様>
本態様の位相調整制御部29は、所定の期間が経過した後に、今回の輝度変化量が最大になる値を求め、今回の輝度変化量が最大になる値がRAM103から取得した前回の輝度変化量が最大になった値よりも大きい場合に、映像取得部21への設定を更新することを特徴とする。
本態様によれば、所定の期間おきに位相調整を実施するため、前回までの輝度変化量の最大値より大きくなるどこかのタイミングで映像取得部21への設定を更新することができる。
<Third aspect>
The phase adjustment control unit 29 according to the present aspect obtains a value at which the current luminance change amount is maximized after a predetermined period has elapsed, and the value at which the current luminance change amount is maximized is acquired from the RAM 103. When the amount is larger than the maximum value, the setting in the video acquisition unit 21 is updated.
According to this aspect, since the phase adjustment is performed every predetermined period, it is possible to update the setting in the video acquisition unit 21 at some timing when it becomes larger than the maximum value of the luminance change amount until the previous time.

<第4態様>
本態様の位相調整制御部29は、今回の輝度変化量が最大になる値がRAM103から取得した前回の輝度変化量が最大になった値よりも小さい場合に、映像取得部21への設定を更新しないことを特徴とする。
本態様によれば、今回の輝度変化量が最大になる値が、前回の輝度変化量が最大になった値よりも小さい場合に、映像取得部21への設定を更新しないことで、表示画像のちらつきや揺らぎを最大限に防止することができる。
<4th aspect>
The phase adjustment control unit 29 according to the present embodiment sets the video acquisition unit 21 when the value at which the current luminance change amount is maximum is smaller than the value at which the previous luminance change amount acquired from the RAM 103 is maximum. It is characterized by not being updated.
According to this aspect, when the value at which the current luminance change amount is maximum is smaller than the value at which the previous luminance change amount is maximum, the display image is not updated by updating the setting in the video acquisition unit 21. Flicker and fluctuation can be prevented to the maximum.

<第5態様>
本態様の画像処理部30は、映像信号に含まれる同期信号に基づいて、映像信号の解像度が変更されたか否かを検知する解像度検知部30aを備え、位相調整制御部29は、映像信号の解像度が変更された場合には、映像取得部21への設定の更新を再開することを特徴とする。
本態様によれば、映像信号の解像度が変更された場合には、映像取得部21への設定の更新を再開することで、変更された映像信号の解像度にあった最適な位相設定を行うことができる。
<5th aspect>
The image processing unit 30 of this aspect includes a resolution detection unit 30a that detects whether or not the resolution of the video signal has been changed based on a synchronization signal included in the video signal, and the phase adjustment control unit 29 When the resolution is changed, the setting update to the video acquisition unit 21 is resumed.
According to this aspect, when the resolution of the video signal is changed, the optimum phase setting corresponding to the changed resolution of the video signal is performed by restarting the update of the setting to the video acquisition unit 21. Can do.

<第6態様>
本態様の画像処理方法は、映像信号を取得するとともに、映像信号に基づいてサンプリングクロック信号を生成する映像取得部21と、映像信号の2つのフレーム間の輝度変化量を算出する画像処理部30と、を備えた画像処理装置の画像処理方法であって、
輝度変化量に基づいて、サンプリングクロック信号の位相を決定し、映像取得部から当該位相を出力させる位相調整制御ステップ(S110)を備え、位相調整制御ステップ(S110)は、輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を映像取得部21に生成させることを特徴とする。
本態様によれば、映像信号の2つのフレーム間の輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を映像取得部に生成させることで、表示画像のちらつきや揺らぎを最大限に防止することができる。この結果、ユーザの視認性を良くすることができる。
<Sixth aspect>
The image processing method of this aspect includes a video acquisition unit 21 that acquires a video signal and generates a sampling clock signal based on the video signal, and an image processing unit 30 that calculates a luminance change amount between two frames of the video signal. An image processing method of an image processing apparatus comprising:
A phase adjustment control step (S110) for determining the phase of the sampling clock signal based on the luminance change amount and outputting the phase from the video acquisition unit is provided, and the phase adjustment control step (S110) maximizes the luminance change amount. The phase of the sampling clock signal is obtained, and the video acquisition unit 21 is caused to generate a sampling clock signal having an inverted phase obtained by inverting the phase.
According to this aspect, the phase of the sampling clock signal that maximizes the amount of luminance change between two frames of the video signal is obtained, and the video acquisition unit generates a sampling clock signal having an inverted phase obtained by inverting the phase. The flickering and fluctuation of the display image can be prevented to the maximum. As a result, the visibility of the user can be improved.

<第7態様>
本態様のプログラムは、第6態様のステップをプロセッサに実行させることを特徴とする。
本態様によれば、本プログラムをプロセッサに実行させることで、映像信号の2つのフレーム間の輝度変化量が最大になるサンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を映像取得部に生成させることができ、表示画像のちらつきや揺らぎを最大限に防止することができる。
<Seventh aspect>
The program according to this aspect is characterized by causing a processor to execute the steps according to the sixth aspect.
According to this aspect, by causing the processor to execute this program, the phase of the sampling clock signal that maximizes the amount of change in luminance between two frames of the video signal is obtained, and the sampling clock having the inverted phase obtained by inverting the phase The signal can be generated by the video acquisition unit, and flickering and fluctuation of the display image can be prevented to the maximum.

1…画像処理システム、2…電子黒板、3…ディスプレイ、4…電子ペン、5…USBメモリ、6…ノートPC、7…テレビ会議端末、8…PC、9…通信ネットワーク、21a…PLL回路、21b…位相遅延回路、21c…A/D変換回路、29…位相調整制御部、30…画像処理部、30a…解像度検知部、CPU…101、ROM…102、RAM…103 DESCRIPTION OF SYMBOLS 1 ... Image processing system, 2 ... Electronic blackboard, 3 ... Display, 4 ... Electronic pen, 5 ... USB memory, 6 ... Notebook PC, 7 ... Video conference terminal, 8 ... PC, 9 ... Communication network, 21a ... PLL circuit, 21b ... Phase delay circuit, 21c ... A / D conversion circuit, 29 ... Phase adjustment control unit, 30 ... Image processing unit, 30a ... Resolution detection unit, CPU ... 101, ROM ... 102, RAM ... 103

特開2012−053087公報JP2012-053087A

Claims (7)

映像信号を取得するとともに、前記映像信号に基づいてサンプリングクロック信号を生成する映像取得部と、
前記映像信号の2つのフレーム間の輝度変化量を算出する画像処理部と、
前記輝度変化量に基づいて、前記サンプリングクロック信号の位相を決定し、前記映像取得部から当該位相を出力させる位相調整制御部と、を備え、
前記位相調整制御部は、
前記輝度変化量が最大になる前記サンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を前記映像取得部に生成させることを特徴とする画像処理装置。
A video acquisition unit that acquires a video signal and generates a sampling clock signal based on the video signal;
An image processing unit for calculating a luminance change amount between two frames of the video signal;
A phase adjustment control unit that determines a phase of the sampling clock signal based on the luminance change amount and outputs the phase from the video acquisition unit;
The phase adjustment control unit
An image processing apparatus, comprising: obtaining a phase of the sampling clock signal that maximizes the amount of change in luminance; and causing the video acquisition unit to generate a sampling clock signal having an inverted phase obtained by inverting the phase.
前記位相調整制御部は、
前記輝度変化量が最大になる前記サンプリングクロック信号の位相を表す位相番号を当該輝度変化量とともに記憶する記憶手段と、
当該位相を反転させた反転位相を表す位相番号を前記映像取得部に設定する設定手段と、を備えたことを特徴とする請求項1記載の画像処理装置。
The phase adjustment control unit
Storage means for storing a phase number representing the phase of the sampling clock signal that maximizes the luminance change amount together with the luminance change amount;
The image processing apparatus according to claim 1, further comprising setting means for setting a phase number representing an inverted phase obtained by inverting the phase in the video acquisition unit.
前記位相調整制御部は、
所定の期間が経過した後に、今回の輝度変化量が最大になる値を求め、前記今回の輝度変化量が最大になる値が前記記憶手段から取得した前回の輝度変化量が最大になった値よりも大きい場合に、前記映像取得部への設定を更新することを特徴とする請求項2記載の画像処理装置。
The phase adjustment control unit
After a predetermined period of time has elapsed, a value at which the current luminance change amount is maximized is obtained, and a value at which the current luminance change amount is maximized is a value at which the previous luminance change amount obtained from the storage means is maximized. The image processing apparatus according to claim 2, wherein the setting in the video acquisition unit is updated when the value is larger than the value.
前記位相調整制御部は、
前記今回の輝度変化量が最大になる値が前記記憶手段から取得した前回の輝度変化量が最大になった値よりも小さい場合に、前記映像取得部への設定を更新しないことを特徴とする請求項3記載の画像処理装置。
The phase adjustment control unit
The setting to the video acquisition unit is not updated when the value at which the current luminance change amount is maximum is smaller than the value at which the previous luminance change amount acquired from the storage unit is maximum. The image processing apparatus according to claim 3.
前記画像処理部は、前記映像信号に含まれる同期信号に基づいて、前記映像信号の解像度が変更されたか否かを検知する解像度検知手段を備え、
前記位相調整制御部は、
前記映像信号の解像度が変更された場合には、前記映像取得部への設定の更新を再開することを特徴とする請求項4記載の画像処理装置。
The image processing unit includes resolution detection means for detecting whether the resolution of the video signal has been changed based on a synchronization signal included in the video signal,
The phase adjustment control unit
The image processing apparatus according to claim 4, wherein when the resolution of the video signal is changed, the setting update to the video acquisition unit is resumed.
映像信号を取得するとともに、前記映像信号に基づいてサンプリングクロック信号を生成する映像取得部と、
前記映像信号の2つのフレーム間の輝度変化量を算出する画像処理部と、を備えた画像処理装置の画像処理方法であって、
前記輝度変化量に基づいて、前記サンプリングクロック信号の位相を決定し、前記映像取得部から当該位相を出力させる位相調整制御ステップを備え、
前記位相調整制御ステップは、
前記輝度変化量が最大になる前記サンプリングクロック信号の位相を求め、当該位相を反転させた反転位相のサンプリングクロック信号を前記映像取得部に生成させることを特徴とする画像処理方法。
A video acquisition unit that acquires a video signal and generates a sampling clock signal based on the video signal;
An image processing method of an image processing apparatus comprising: an image processing unit that calculates a luminance change amount between two frames of the video signal,
A phase adjustment control step of determining a phase of the sampling clock signal based on the luminance change amount and outputting the phase from the video acquisition unit;
The phase adjustment control step includes:
An image processing method comprising: obtaining a phase of the sampling clock signal that maximizes the amount of change in luminance, and causing the video acquisition unit to generate a sampling clock signal having an inverted phase obtained by inverting the phase.
請求項6記載のステップをプロセッサに実行させることを特徴とするプログラム。   A program for causing a processor to execute the steps according to claim 6.
JP2014137855A 2014-07-03 2014-07-03 Image processing apparatus, image processing method, and program Pending JP2016014834A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014137855A JP2016014834A (en) 2014-07-03 2014-07-03 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137855A JP2016014834A (en) 2014-07-03 2014-07-03 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2016014834A true JP2016014834A (en) 2016-01-28

Family

ID=55231047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137855A Pending JP2016014834A (en) 2014-07-03 2014-07-03 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2016014834A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117156210A (en) * 2023-02-07 2023-12-01 荣耀终端有限公司 Method and device for detecting splash screen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117156210A (en) * 2023-02-07 2023-12-01 荣耀终端有限公司 Method and device for detecting splash screen

Similar Documents

Publication Publication Date Title
JP6583432B2 (en) Image processing apparatus, image display method, and program
WO2016117321A1 (en) Electronic information board apparatus and method
US10397638B2 (en) Information processing apparatus, and image displaying method
JP6620494B2 (en) Communication system, information processing apparatus, communication method, program
JP2015069284A (en) Image processing apparatus
US9250852B2 (en) Screen output system that prevents the display of selected information
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
JP2015210569A (en) Image processing device, information sharing device, image processing method, and program
US11294495B2 (en) Electronic whiteboard, method for image processing in electronic whiteboard, and recording medium containing computer program of electronic whiteboard
JP5991281B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6020397B2 (en) Image processing apparatus and image processing system
JP2018026185A (en) Electronic information board, image processing method, and program
EP3893496A1 (en) Output apparatus, output system, method of changing format information, and carrier means
JP2017076207A (en) Image processing device and image processing system
JP6631643B2 (en) Image processing apparatus, image processing system, and image processing method
JP6722240B2 (en) Information processing apparatus, information processing program, information processing method, and information processing system
JP2016014834A (en) Image processing apparatus, image processing method, and program
JP7306190B2 (en) Display device, display method, program
JP7494539B2 (en) Display device, load control method, and program
JP2021165964A (en) Display device, load control method, and program
JP2020149634A (en) Image processing apparatus, method, and program