JP6033724B2 - Image display system, server, and diagnostic image display device - Google Patents

Image display system, server, and diagnostic image display device Download PDF

Info

Publication number
JP6033724B2
JP6033724B2 JP2013067840A JP2013067840A JP6033724B2 JP 6033724 B2 JP6033724 B2 JP 6033724B2 JP 2013067840 A JP2013067840 A JP 2013067840A JP 2013067840 A JP2013067840 A JP 2013067840A JP 6033724 B2 JP6033724 B2 JP 6033724B2
Authority
JP
Japan
Prior art keywords
image
image display
evaluation
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013067840A
Other languages
Japanese (ja)
Other versions
JP2014191675A (en
Inventor
喜実 野口
喜実 野口
昌宏 荻野
昌宏 荻野
琢磨 柴原
琢磨 柴原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013067840A priority Critical patent/JP6033724B2/en
Publication of JP2014191675A publication Critical patent/JP2014191675A/en
Application granted granted Critical
Publication of JP6033724B2 publication Critical patent/JP6033724B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画質評価技術、画像生成技術または画像表示技術などに関する。   The present invention relates to image quality evaluation technology, image generation technology, image display technology, and the like.

画質の評価に関しては、大きく2種類の手法がある。1つは主観評価であり、評価対象となる画像を多数の被験者に提示し、評価値を得るものである。もう1つは客観評価であり、評価対象の画像から何らかの特徴量を抽出し、その大小によって評価を行うものである。   There are two main methods for image quality evaluation. One is subjective evaluation, in which an image to be evaluated is presented to a large number of subjects to obtain an evaluation value. The other is objective evaluation, in which some feature amount is extracted from an image to be evaluated, and evaluation is performed based on the size.

主観評価は、人間による評価のため、人間の感覚と相関の高い評価が得られるものの、被験者を多数集めなければならないことや、被験者個々人の評価基準に差異があること、多数の評価対象画像においては、多くの時間とコストが必要なこと等、問題がある。   Subjective evaluation is an evaluation by human beings, and an evaluation highly correlated with human senses can be obtained. However, it is necessary to collect a large number of subjects, there are differences in the evaluation criteria of individual subjects, and in many evaluation target images. However, there are problems such as requiring a lot of time and cost.

一方で客観評価は、コンピュータなどによって処理が可能であり、基準が明確で多数の評価結果を短時間に得られるが、人間の主観と乖離した結果を出力してしまうことも多い。   On the other hand, objective evaluation can be processed by a computer or the like, and the criteria are clear and a large number of evaluation results can be obtained in a short time. However, the results often deviate from human subjectivity.

そこで、人間の主観と相関の高い客観評価結果を得ることを目指す技術が開発されている。例えば、特許文献1では、その要約に記載されるように「被験者が総合画質スコアを決定する際に注目する画像上の位置を検出し、検出された位置の部分画像情報を取り込む。取り込んだ部分画像の特徴を抽出すると共に、その抽出した特徴に応じた画質評価値を算出する。被験者が決定した総合画質スコアと、抽出された画像の特徴および算出された画質評価値との関係を学習しておく。この学習結果に基づき、被評価画像について、総合画質スコアを決定するのに必要となる画質評価項目に関する評価を行うべき部分画像の位置を特定する。特定された位置の部分画像を取り込み、取り込んだ部分画像情報に対して総合画質スコアを決定するのに必要となる画質評価項目についての画質評価値を算出する。算出された画質評価値と、学習結果とに基づいて被評価画像についての総合画質スコアを算出する。」ことが開示されている。   Therefore, a technology that aims to obtain objective evaluation results highly correlated with human subjectivity has been developed. For example, in Patent Document 1, as described in the summary, “a position on an image to which a subject pays attention when determining an overall image quality score is detected, and partial image information at the detected position is captured. Extracts image features and calculates image quality evaluation values according to the extracted features, and learns the relationship between the overall image quality score determined by the subject and the extracted image features and calculated image quality evaluation values. Based on the learning result, the position of the partial image to be evaluated for the image quality evaluation item necessary for determining the overall image quality score is specified for the evaluated image.The partial image at the specified position is captured. The image quality evaluation value for the image quality evaluation item necessary for determining the total image quality score for the captured partial image information is calculated. Calculating the total quality score for the evaluation image based on the results. "It has been disclosed.

特開平10-063859号公報Japanese Patent Laid-Open No. 10-063859

しかしながら、上記従来技術では、1枚の画像を用いているため、やはり被験者による個人差による評価のばらつきが生じるという課題や、注視に時間を要し評価時間が増大するといった課題がある。   However, since the above-described conventional technique uses one image, there are still problems such as variations in evaluation due to individual differences among subjects, and problems that time is required for gaze and evaluation time increases.

本発明は上記問題を鑑みて考えたものであり、人間の主観と相関の高い出力結果をより好適に得る評価技術及び当該評価技術を用いた画像生成処理技術を提供することを目的とする。   The present invention has been devised in view of the above problems, and an object thereof is to provide an evaluation technique for more suitably obtaining an output result highly correlated with human subjectivity and an image generation processing technique using the evaluation technique.

本発明の一実施の態様は、例えば、サーバと診断画像表示装置とを含む画像表示システムであって、前記サーバは、ネットワークを介して他の機器と情報を送受信可能な通信部と、画像群を記憶するデータベースと、前記画像群に基いて評価パラメータを決定する評価パラメータ決定部と、を備え、前記診断画像表示装置は、ネットワークを介して他の機器と情報を送受信可能な通信部と、診断画像を入力する画像入力部と、前記画像入力部で入力された画像について画像処理を行う画像処理部と、前記画像処理部で画像処理を行った画像を表示する表示部とを備え、前記サーバの前記データベースに記憶される画像群は、予め所定の評価指標に基づいて順位付けされた画像群であり、前記評価パラメータ決定部は、前記データベースに記憶される画像群の各画像の順位と特徴量に基いて前記評価パラメータを決定し、前記サーバの前記通信部から決定した前記評価パラメータを前記診断画像表示装置の前記通信部に送信し、前記診断画像表示装置の前記画像処理部は、前記画像入力部で入力された画像について、前記通信部で受信した評価パラメータがより好適となるように、前記画像処理を行うように構成すればよい。   One embodiment of the present invention is an image display system including, for example, a server and a diagnostic image display device, and the server includes a communication unit capable of transmitting and receiving information to and from other devices via a network, and an image group. A diagnostic data display device, and an evaluation parameter determination unit that determines an evaluation parameter based on the image group, the diagnostic image display device, a communication unit capable of transmitting and receiving information to and from other devices via a network, An image input unit that inputs a diagnostic image, an image processing unit that performs image processing on the image input by the image input unit, and a display unit that displays an image subjected to image processing by the image processing unit, The image group stored in the database of the server is an image group previously ranked based on a predetermined evaluation index, and the evaluation parameter determination unit stores the image group in the database. The evaluation parameter is determined based on the ranking and feature amount of each image in the image group, the evaluation parameter determined from the communication unit of the server is transmitted to the communication unit of the diagnostic image display device, and the diagnostic image The image processing unit of the display device may be configured to perform the image processing on the image input by the image input unit so that the evaluation parameter received by the communication unit is more suitable.

人間の主観と相関の高い出力結果をより好適に得る評価技術及び当該評価技術を用いた画像生成処理技術を提供することが可能となる。   It is possible to provide an evaluation technique that more suitably obtains an output result having a high correlation with human subjectivity and an image generation processing technique using the evaluation technique.

本発明の実施例1のブロック図であるIt is a block diagram of Example 1 of the present invention. 本発明の実施例1における評価パラメータ決定部のブロック図であるIt is a block diagram of the evaluation parameter determination part in Example 1 of this invention. 特徴量生成部のフローチャートであるIt is a flowchart of a feature-value production | generation part. 特徴量生成部の処理の過程を示す図であるIt is a figure which shows the process of a feature-value production | generation part. 特徴量ベクトル抽出部の特徴量を適用する過程を示す図であるIt is a figure which shows the process in which the feature-value vector extraction part applies the feature-value. 特徴量ベクトル抽出部のベクトル化の過程を示す図であるIt is a figure which shows the process of vectorization of the feature-value vector extraction part. 評価パラメータ決定部におけるフローチャートであるIt is a flowchart in an evaluation parameter determination part. 評価パラメータ決定部において各部を接続した場合のブロック図であるIt is a block diagram at the time of connecting each part in an evaluation parameter determination part 画像処理部のブロック図であるIt is a block diagram of an image processing part 画像処理部におけるフローチャートであるIt is a flowchart in an image processing part. 表示部における表示例であるIt is a display example in a display part 表示部における第2の表示例であるIt is the 2nd example of a display in a display part. 本発明の実施例3のブロック図であるIt is a block diagram of Example 3 of the present invention. 本発明の実施例3におけるベストショット画像抽出部のブロック図であるIt is a block diagram of the best shot image extraction part in Example 3 of this invention. ベストショット画像抽出部におけるフローチャートであるIt is a flowchart in the best shot image extraction part. 本発明の実施例4のブロック図であるIt is a block diagram of Example 4 of the present invention. 本発明の実施例4における2枚の画像を提示する場合の例であるIt is an example in the case of presenting two images in Example 4 of the present invention. 本発明の実施例4における2枚より多くの画像を提示する場合の例であるIt is an example in the case of showing more images than two sheets in Example 4 of the present invention.

以下、図面を用いて実施例を説明する。   Embodiments will be described below with reference to the drawings.

図1は学習サーバ及び診断画像表示装置のブロック図である。図1において学習サーバ101はネットワーク103を介して診断画像表示装置102に接続されている。ここでネットワーク103は病院内でのLocal Area Network(LAN)や、Metropolitan Area Network(MAN)、Wide Area Network(WAN)、インターネット等である。また、ネットワーク103に接続される診断画像表示装置102の総数は1以上の任意の数であってよい。   FIG. 1 is a block diagram of a learning server and a diagnostic image display device. In FIG. 1, a learning server 101 is connected to a diagnostic image display device 102 via a network 103. Here, the network 103 is a local area network (LAN) in a hospital, a metropolitan area network (MAN), a wide area network (WAN), the Internet, or the like. Further, the total number of diagnostic image display devices 102 connected to the network 103 may be an arbitrary number of 1 or more.

学習サーバ101はデータベース104、評価パラメータ決定部105、通信部106を備える。ほかに前記データベース104に対して入出力を行う入出力部があってもよい。   The learning server 101 includes a database 104, an evaluation parameter determination unit 105, and a communication unit 106. In addition, there may be an input / output unit that performs input / output with respect to the database 104.

データベース104は、事前に所定の評価指標に基づいて順位付けられた画像群を記憶する。ここで順位とは同順を含んでよい。また、所定の評価指標とは、例えば「見易さ」や「美しさ」、「診断のしやすさ」、「疾病の進行度」等である。   The database 104 stores a group of images ranked in advance based on a predetermined evaluation index. Here, the order may include the same order. The predetermined evaluation index is, for example, “ease of viewing”, “beauty”, “ease of diagnosis”, “degree of disease progression”, and the like.

上記順位の決定には、例えば、アンケート調査等を用いる。その際、2枚以上の学習用画像を被験者に提示し、それらの順位を回答として回収する。   For example, a questionnaire survey or the like is used to determine the ranking. At that time, two or more images for learning are presented to the subject, and their rank is collected as an answer.

評価パラメータ決定部105は記憶された画像群から、評価パラメータを決定する。   The evaluation parameter determination unit 105 determines an evaluation parameter from the stored image group.

評価パラメータ決定部105の処理の詳細について図2を用いて説明する。   Details of the processing of the evaluation parameter determination unit 105 will be described with reference to FIG.

図2は評価パラメータ決定部105についてのブロック図である。図2において、特徴量生成部201は、データベース104に記憶されている画像群から特徴量を生成する。特徴量ベクトル抽出部202は、特徴量生成部201により生成された特徴量を用いて特徴量ベクトルを抽出する。評価パラメータ算出部203は、あらかじめ付与された順位と特徴量ベクトルの大小関係を適切に対応させる評価パラメータを算出する。   FIG. 2 is a block diagram of the evaluation parameter determination unit 105. In FIG. 2, the feature amount generation unit 201 generates a feature amount from an image group stored in the database 104. The feature quantity vector extraction unit 202 uses the feature quantity generated by the feature quantity generation unit 201 to extract a feature quantity vector. The evaluation parameter calculation unit 203 calculates an evaluation parameter that appropriately associates the magnitude relationship between the pre-assigned rank and the feature quantity vector.

まず、特徴量生成部201について説明する。特徴量生成部201は、教師なし学習を利用し画像群から特徴量を生成する。図3に特徴量生成部201の処理のフローチャートを示す。また、処理の流れを図4に示す。   First, the feature value generation unit 201 will be described. The feature amount generation unit 201 generates a feature amount from the image group using unsupervised learning. FIG. 3 shows a flowchart of the process of the feature quantity generation unit 201. The flow of processing is shown in FIG.

ステップ301において、データベース104内のすべての画像から無作為に、一定のサイズ、例えば6×6画素の矩形のパッチを抽出する。なお、抽出するパッチの数、形状は任意でよい。例えば数万個のパッチ群401aを抽出する。次に、各パッチの輝度、コントラストを正規化する。なお、正規化の処理例としては、例えばパッチ内の最小値および最大値を0〜1に対応させる手法や、対数に変換する手法等がある。   In step 301, rectangular patches of a certain size, for example, 6 × 6 pixels, are randomly extracted from all the images in the database 104. Note that the number and shape of patches to be extracted may be arbitrary. For example, tens of thousands of patch groups 401a are extracted. Next, the brightness and contrast of each patch are normalized. Note that examples of normalization processing include, for example, a method of making the minimum and maximum values in a patch correspond to 0 to 1, a method of converting to a logarithm, and the like.

次にステップ302において、教師なし学習を用いて、パッチ群401aから任意の数、例えば100個の代表パッチ群402aを算出する。このときに利用する教師なし学習手法としては、例えばk-means法やニューラルネットワーク、deep learning等がある。   Next, in step 302, an arbitrary number, for example, 100 representative patch groups 402a are calculated from the patch group 401a using unsupervised learning. Examples of the unsupervised learning method used at this time include a k-means method, a neural network, and deep learning.

以上のステップ301および302の処理を任意の回数、例えば10回行う。10回の計算により代表パッチ群402a〜jが得られる。   The processes in steps 301 and 302 described above are performed an arbitrary number of times, for example, 10 times. Representative patch groups 402a to 402j are obtained by 10 calculations.

ステップ304において、この1000個の代表パッチ群402a〜jに対して、再度教師なし学習を適用し、任意の数、例えば200個の代表パッチ群403を得る。本発明では、この代表パッチ群403を特徴量と呼ぶこととする。   In step 304, unsupervised learning is again applied to the 1000 representative patch groups 402a to 402j to obtain an arbitrary number, for example, 200 representative patch groups 403. In the present invention, the representative patch group 403 is referred to as a feature amount.

2段階に分けて教師なし学習を行う理由は、莫大な数のパッチ(例えば、1千万個)に対して教師なし学習を適用すると、解が不安定になるためである。   The reason for performing unsupervised learning in two stages is that when unsupervised learning is applied to a huge number of patches (for example, 10 million), the solution becomes unstable.

次に特徴量ベクトル抽出部202について説明する。特徴量ベクトル抽出部202は、特徴量生成部201により生成された特徴量からデータベース104に記憶されている各画像について特徴量ベクトルを抽出する。   Next, the feature vector extraction unit 202 will be described. The feature amount vector extraction unit 202 extracts a feature amount vector for each image stored in the database 104 from the feature amount generated by the feature amount generation unit 201.

ある特徴量抽出対象画像501に対して、図5に示すように、特徴量403のk番目のパッチについて、以下の数式1に示される演算を行う。   For a certain feature quantity extraction target image 501, as shown in FIG. 5, for the k-th patch of the feature quantity 403, the calculation shown in the following Equation 1 is performed.

Figure 0006033724
Figure 0006033724

ここで、ベクトルxは、代表パッチと同サイズの特徴量抽出対象画像501内の矩形領域であり、ベクトルc(k)は第1ステップにおいて生成された200個の代表パッチのうちのk番目 (k=1,2,…,200)のパッチをあらわす。μ(z)はzkのkについての平均である。この処理を特徴量抽出対象画像501のすべての画素位置で行う。 Here, the vector x is a rectangular area in the feature quantity extraction target image 501 having the same size as the representative patch, and the vector c (k) is the kth ( 200th representative patch generated in the first step ) . k = 1,2, ..., 200). μ (z) is the average of z k with respect to k. This process is performed at all pixel positions of the feature quantity extraction target image 501.

すべてのkについて式(1)を行うと、1枚の特徴量抽出対象画像501に対して同サイズの処理結果fkは200枚得られる。 When Expression (1) is performed for all k, 200 processing results f k of the same size are obtained for one feature quantity extraction target image 501.

ここで、それら200枚の処理結果から、特徴量ベクトルを生成するpooling処理について説明する。以下では、Sum-poolingと呼ばれる手法について説明する。例えば、それぞれを図6に示すように上下左右に4等分し、601〜604の各領域において総和を求める。領域601の総和を特徴量ベクトルの第1次元とし、領域602の総和を第2次元目の値とし、領域603を第3次元目…としていく。このようにして、200枚すべてのfkについて1次元ベクトル化し、これを特徴量ベクトルとする。これにより、1枚の画像について、4×200=800次元の特徴量ベクトルが得られる。なお、領域の分割数は必ずしも4である必要はない。最小は1(分割無し)であり、最大の分割サイズは画像サイズと一致する。また、前記処理では、分割後に総和計算を行っているが、分割した各領域内で最大値を求める手法(max-pooling)等を用いて、特徴量ベクトル化してもよい。 Here, a pooling process for generating a feature vector from these 200 processing results will be described. In the following, a method called Sum-pooling will be described. For example, as shown in FIG. 6, each is divided into four equal parts in the vertical and horizontal directions, and the sum is obtained in each of the areas 601 to 604. The sum of the regions 601 is set as the first dimension of the feature vector, the sum of the regions 602 is set as the value of the second dimension, and the region 603 is set as the third dimension. In this manner, all 200 f k are converted into a one-dimensional vector, which is used as a feature vector. Thereby, a 4 × 200 = 800-dimensional feature vector is obtained for one image. Note that the number of area divisions does not necessarily have to be four. The minimum is 1 (no division), and the maximum division size matches the image size. In the above-described processing, the sum calculation is performed after the division. However, a feature amount vector may be generated using a method (max-pooling) for obtaining a maximum value in each divided region.

また、特徴量生成部201における特徴量生成および特徴量ベクトル抽出部202については、上記の教師なし学習を用いるもの以外に、既存の特徴量のうちのひとつ、もしくはそれらの組み合わせを利用するようにしてもよい。利用する特徴量として、例えば、ヒストグラムや、HOG(Histograms of Oriented Gradients)に代表されるエッジ特徴量、SIFT(Scale-Invariant Feature Transform)等の局所特徴量、スパースコーディングによる特徴量等がある。   In addition, for the feature value generation and feature value vector extraction unit 202 in the feature value generation unit 201, one of existing feature values or a combination thereof is used in addition to the above-described using unsupervised learning. May be. Examples of feature quantities to be used include histograms, edge feature quantities represented by HOG (Histograms of Oriented Gradients), local feature quantities such as SIFT (Scale-Invariant Feature Transform), and feature quantities by sparse coding.

次に、評価パラメータ算出部203について説明する。評価パラメータ算出部203では、順位付けられた画像群に対してRanking SVM(Support Vector Machine)を用いてパラメータベクトルを算出する。   Next, the evaluation parameter calculation unit 203 will be described. The evaluation parameter calculation unit 203 calculates a parameter vector using Ranking SVM (Support Vector Machine) for the ranked image group.

2枚の画像iおよびjについて、ある評価指標についてiはjよりも順位が高いとする。それぞれの画像から特徴量ベクトル抽出部202により抽出された特徴量ベクトルをxi, xjとする。   For two images i and j, i is higher in rank than j for a certain evaluation index. The feature quantity vectors extracted from the respective images by the feature quantity vector extraction unit 202 are assumed to be xi and xj.

ここで、以下の数式2及び数式3に示すような関係を満たすパラメータベクトルwを算出することを本発明では学習と呼ぶことにする。   Here, calculating the parameter vector w satisfying the relationship shown in the following Equations 2 and 3 is called learning in the present invention.

Figure 0006033724
Figure 0006033724

Figure 0006033724
Figure 0006033724

SVMの最適化にはSMO (sequential minimal optimization)が用いられる場合が多い。サンプル数をnとしたとき、SMOはO(n2)で解くことが可能な効率のよい最適化手法であるが、本発明で利用するRanking SVMでは2枚の画像の組の順位について学習を行うため、サンプル数は最大でnC2となり、画像の枚数による影響を受けやすい。 SMO (sequential minimal optimization) is often used for SVM optimization. When the number of samples is n, SMO is an efficient optimization method that can be solved with O (n 2 ), but Ranking SVM used in the present invention learns about the order of the set of two images. Therefore, the maximum number of samples is n C 2 , which is easily affected by the number of images.

そのため、本発明では、オンライン学習の最適化手法を導入し、O(n)の演算量で最適化を可能にする、新たな最適化手法を用いる。   Therefore, in the present invention, an online learning optimization method is introduced, and a new optimization method that enables optimization with the amount of computation of O (n) is used.

図7は評価パラメータ算出部203の処理を示すフローチャートである。2枚の画像の組からそれぞれ抽出された特徴量ベクトルに対し、ステップ702および703により、所定の評価指標における2枚の画像の順位の有無が判定される。順序関係がある場合、ステップ705において順序関係がある場合の誤差dを計算する。また順序関係がない場合、ステップ706において順序関係がない場合の誤差dを計算する。ステップ707において更新時の誤差dを判定する。誤差dが大きい場合は、ステップ708においてwを更新し、画像の組を変更して同様の処理を行う。誤差dが十分小さくなったとき学習を終了する。   FIG. 7 is a flowchart showing the processing of the evaluation parameter calculation unit 203. In step 702 and 703, the presence / absence of the order of the two images in the predetermined evaluation index is determined for the feature vector extracted from the set of two images. If there is an order relationship, an error d in the case where there is an order relationship is calculated in step 705. If there is no order relation, an error d in the case where there is no order relation is calculated in step 706. In step 707, an error d at the time of update is determined. If the error d is large, w is updated in step 708, and the same processing is performed by changing the set of images. When the error d becomes sufficiently small, the learning is finished.

以下、更新式について詳細に説明する。
Hereinafter, the update formula will be described in detail.

画像群内における、順序関係がある組の集合をO、順序関係が等しい組の集合をSとする。ここでソフトマージン最大化の概念を導入し、最適化する目的関数を以下の数式4のように定める。   A set of sets having an order relationship in an image group is O, and a set of sets having the same order relationship is S. Here, the concept of soft margin maximization is introduced, and an objective function to be optimized is defined as in the following Equation 4.

Figure 0006033724
Figure 0006033724

この式において、αおよびβはそれぞれ集合Oおよび集合Sのスラック変数であり、それぞれの集合内において0以上である。また、Cは正則化項とのバランスをとる、正のハイパーパラメータである。 In this equation, α and β are slack variables of the set O and the set S, respectively, and are 0 or more in each set. C is a positive hyperparameter that balances the regularization term.

ここで、順序関係のある組の集合Oから取り出された2枚の画像の組{i,j}は順序関係の等しい組の集合には含まれていないので、数式4の第1項はOとSで独立に解くことができる。   Here, since the set {i, j} of two images taken out from the set O having the order relationship is not included in the set having the same order relationship, the first term of Equation 4 is expressed as O And S can be solved independently.

そこでまず、ステップ705で計算される、順序関係のある組の集合Oに含まれる画像の組{i,j}について解くことを考える。はじめに、{i,j}について、数式5に示すようにヒンジロス関数を与える。   Therefore, first, consider solving the image set {i, j} included in the set O having the order relation calculated in step 705. First, a hinge loss function is given for {i, j} as shown in Equation 5.

Figure 0006033724
Figure 0006033724

さて、ここで、数式4にかえて、次の数式6により逐次的に最適化を行う。 Now, instead of Equation 4, optimization is performed sequentially using Equation 6 below.

Figure 0006033724
Figure 0006033724

この式において、ξはスラック変数であり、ξ≧0である。また、Cは正則化項とのバランスをとる、正のハイパーパラメータである。数式6を制約つき2次計画法を用いて解くことにより、パラメータベクトルwが求められる。
なお数式6を、例えばKarush-Kuhn-Tucker (KKT)条件の下で解いていく。まず、数式7のような結果が得られる。
In this equation, ξ is a slack variable, and ξ ≧ 0. C is a positive hyperparameter that balances the regularization term. The parameter vector w is obtained by solving Equation 6 using constrained quadratic programming.
Equation 6 is solved under the Karush-Kuhn-Tucker (KKT) condition, for example. First, a result like Formula 7 is obtained.

Figure 0006033724
Figure 0006033724

wについて求めると、数式8を経て数式9が得られる。 When w is obtained, Equation 9 is obtained through Equation 8.

Figure 0006033724
Figure 0006033724

Figure 0006033724
Figure 0006033724

なお、λについては次の数式10で与えられる。   Note that λ is given by Equation 10 below.

Figure 0006033724
Figure 0006033724

したがって誤差dは数式11のようになる。   Therefore, the error d is expressed by Equation 11.

Figure 0006033724
Figure 0006033724

なお、更新式は、数式12のように解くことができる。   The update formula can be solved as shown in Formula 12.

Figure 0006033724
Figure 0006033724

一方、ステップ706で計算される、順序関係が等しい組の集合Sから取り出された画像の組{i,j}の場合を考える。   On the other hand, consider the case of a set of images {i, j} taken out from a set S of sets having the same order relation calculated in step 706.

順序関係がある場合と同様にヒンジロス関数を与えると、数式13のようになる。   When a hinge loss function is given as in the case where there is an order relationship, Equation 13 is obtained.

Figure 0006033724
Figure 0006033724

ここでεは許容する誤差である。最適化に用いる目的関数は数式6と同様に、以下の数式14のように表せる。 Here, ε is an allowable error. The objective function used for optimization can be expressed as in the following Expression 14, similarly to Expression 6.

Figure 0006033724
Figure 0006033724

数式14を制約つき2次計画法を用いて解くことにより、パラメータベクトルwが求められる。 The parameter vector w is obtained by solving Equation 14 using a constrained quadratic programming method.

なお上式を例えば、順序関係のある組の集合Oのときと同様に、KKT条件の下で解いていく。まず、数式15が得られる。   The above equation is solved under the KKT condition, for example, as in the case of the set O having the order relation. First, Formula 15 is obtained.

Figure 0006033724
Figure 0006033724

ここでsgnは符号関数である。 Here, sgn is a sign function.

次に、wについて求めると、数式16のようになる。   Next, when w is calculated, Equation 16 is obtained.

Figure 0006033724
Figure 0006033724

なお、λについては次の数式17で与えられる。 Note that λ is given by Equation 17 below.

Figure 0006033724
Figure 0006033724

よって誤差dは数式18のようになる。   Therefore, the error d is expressed by Equation 18.

Figure 0006033724
Figure 0006033724

したがって、更新式は数式19のように解くことができる。   Therefore, the update equation can be solved as in Equation 19.

Figure 0006033724
Figure 0006033724

上記のようにして、逐次的に更新することで算出された最終的なパラメータベクトルwをある評価指標に対する評価パラメータとする。通信部106は算出された評価パラメータを診断画像表示装置102に送信する。また、通信部106は、診断画像表示装置102においても、入力画像の特徴量ベクトルが算出可能となるように、特徴量生成部201で生成した特徴量を診断画像表示装置102に送信する。   As described above, the final parameter vector w calculated by sequentially updating is used as an evaluation parameter for a certain evaluation index. The communication unit 106 transmits the calculated evaluation parameter to the diagnostic image display device 102. In addition, the communication unit 106 transmits the feature quantity generated by the feature quantity generation unit 201 to the diagnostic image display apparatus 102 so that the diagnostic image display apparatus 102 can also calculate the feature quantity vector of the input image.

また、学習サーバ101において、図8に示すように、評価パラメータ決定部105における特徴量生成部201、特徴量ベクトル抽出部202、評価パラメータ算出部203とデータベース104を接続し、生成した特徴量および抽出した特徴量ベクトルについて、データベース104に記憶するようにし、2回目以降の計算時にはそれを利用するようにしてもよい。   Further, in the learning server 101, as shown in FIG. 8, the feature quantity generation unit 201, the feature quantity vector extraction unit 202, and the evaluation parameter calculation unit 203 in the evaluation parameter determination unit 105 are connected to the database 104, and the generated feature quantity and The extracted feature vector may be stored in the database 104 and used in the second and subsequent calculations.

なお、学習サーバ101はコンピュータによって実行されるプログラムとして実現してもよい。コンピュータには入出力装置、CPU(Central Processing Unit)、メモリ、記録媒体等を有し、これらがバスに接続されている。データベースは、同コンピュータの記録媒体に相当する。また、記録媒体はサーバを実現するプログラムを格納する。プログラムは、バスを通してメモリに展開され、CPUによって実行される。   Note that the learning server 101 may be realized as a program executed by a computer. The computer has an input / output device, a CPU (Central Processing Unit), a memory, a recording medium, and the like, and these are connected to a bus. The database corresponds to a recording medium of the computer. The recording medium stores a program for realizing the server. The program is expanded in the memory through the bus and executed by the CPU.

次に、診断画像表示装置102の動作について説明する。   Next, the operation of the diagnostic image display apparatus 102 will be described.

診断画像表示装置102は図1に示すように、通信部107、画像入力部108、画像処理部109、表示部110を備える。   As shown in FIG. 1, the diagnostic image display apparatus 102 includes a communication unit 107, an image input unit 108, an image processing unit 109, and a display unit 110.

診断画像表示装置102では、画像入力部108より入力された画像について、複数の処理結果を生成し、学習サーバ101より受信した特徴量及び評価パラメータを用いて、より好適な処理結果を表示する。   The diagnostic image display apparatus 102 generates a plurality of processing results for the image input from the image input unit 108, and displays a more preferable processing result using the feature amount and the evaluation parameter received from the learning server 101.

画像処理部109の構成を図9に示す。画像処理部109は処理画像生成部901、特徴量ベクトル抽出部902、評価値算出部903、選択部904から成る。それぞれの処理について、図10を用いて説明する。   The configuration of the image processing unit 109 is shown in FIG. The image processing unit 109 includes a processed image generation unit 901, a feature vector extraction unit 902, an evaluation value calculation unit 903, and a selection unit 904. Each process will be described with reference to FIG.

図10において、ステップ1001として、画像入力部108より画像を入力する。次にステップ1002において処理画像生成部901は例えば複数の色のパタンによる複数の色補正処理結果を生成する。   In FIG. 10, as step 1001, an image is input from the image input unit 108. Next, in step 1002, the processed image generation unit 901 generates a plurality of color correction processing results based on a plurality of color patterns, for example.

次に、ステップ1003において特徴量ベクトル抽出部902は、学習サーバ101より受信した特徴量を用いて、複数の処理結果それぞれについて特徴量ベクトルを抽出する。抽出方法は、学習サーバ101の特徴量ベクトル抽出部202と同様とする。   Next, in step 1003, the feature quantity vector extraction unit 902 uses the feature quantities received from the learning server 101 to extract feature quantity vectors for each of a plurality of processing results. The extraction method is the same as that of the feature vector extraction unit 202 of the learning server 101.

次に、ステップ1004において、評価値算出部903は、抽出された特徴量ベクトルと学習サーバ101より受信した評価パラメータの重みつき線形和を計算し、処理結果それぞれについて評価値を算出する。   Next, in step 1004, the evaluation value calculation unit 903 calculates a weighted linear sum of the extracted feature vector and the evaluation parameter received from the learning server 101, and calculates an evaluation value for each processing result.

最後にステップ1005において、判定部904は、処理結果を評価値を用いて、順位付けし、評価値が最大となった処理結果を選択する。   Finally, in step 1005, the determination unit 904 ranks the processing results using the evaluation values, and selects the processing result having the maximum evaluation value.

表示部110は、判定部904が選択した評価値が最大の画像を単純に最終出力画像としても良い。また、以下に説明するように、判定部904が選択した評価値が最大の画像を表示するとともに、ユーザに他の最終出力画像候補となる複数の色補正処理結果の画像を表示する構成としてもよい。   The display unit 110 may simply use the image having the maximum evaluation value selected by the determination unit 904 as the final output image. Further, as described below, an image having the maximum evaluation value selected by the determination unit 904 may be displayed, and a plurality of color correction processing result images serving as other final output image candidates may be displayed to the user. Good.

図11は表示部110においてユーザに表示される画面の例である。判定部904により選択された、評価値が最大となった処理結果1101を表示する。また、評価値を算出したそのほかの画像1102a〜dを並べて表示する。表示枚数は任意でよく、ユーザによって枚数の選択ができることが望ましい。また、表示箇所としては図11に示すように画面下部や、図12に示すように画面横などが考えられる。   FIG. 11 is an example of a screen displayed to the user on the display unit 110. The processing result 1101 selected by the determination unit 904 and having the maximum evaluation value is displayed. Further, the other images 1102a to 1102d for which the evaluation values are calculated are displayed side by side. The number of displayed sheets may be arbitrary, and it is desirable that the number can be selected by the user. Moreover, as a display location, the lower part of a screen as shown in FIG. 11, the screen side as shown in FIG. 12, etc. can be considered.

また、キーボードやマウス、ボタン、タッチパネル等を利用して、1102a〜dを大きく表示できるようにしてもよい。1102a〜d以外に画像があった場合、スクロール等ができるようにし、表示しきれない画像が閲覧できるようにしてもよい。   In addition, a keyboard, mouse, button, touch panel, or the like may be used so that 1102a to d can be displayed in a large size. If there are images other than 1102a to 1102d, scrolling or the like may be performed, and an image that cannot be displayed may be browsed.

以上より、本実施例によれば、個人差の少ないと考えられる順位という相対評価を用いて、主観と相関の高い補正結果を出力できる。   As described above, according to the present embodiment, it is possible to output a correction result having a high correlation with the subjectivity using the relative evaluation of the rank considered to have a small individual difference.

次に、本発明の実施例2について説明する。本実施例において、複数の評価指標を一度に学習することが可能である。本実施例では、図2における、評価パラメータ算出部203の処理を以下のように変更する。その他の構成および動作については、第1の実施例と同様であるため、説明を省略する。   Next, a second embodiment of the present invention will be described. In this embodiment, it is possible to learn a plurality of evaluation indexes at a time. In the present embodiment, the process of the evaluation parameter calculation unit 203 in FIG. 2 is changed as follows. Other configurations and operations are the same as those in the first embodiment, and thus description thereof is omitted.

複数の評価指標について順位付けされた2枚の画像iおよびjについて、それぞれの画像から特徴量ベクトル抽出部202により抽出された特徴量ベクトルをxi, xjとする。   For the two images i and j ranked for a plurality of evaluation indexes, the feature quantity vectors extracted from the respective images by the feature quantity vector extraction unit 202 are assumed to be xi and xj.

本実施例では、事前に順位付けられた複数の評価指標から、無作為に2つの指標を取り出し、パラメータベクトルを求める。この最適化処理を繰り返すことにより、複数の評価指標を一度に学習できる。   In the present embodiment, two indices are randomly extracted from a plurality of evaluation indices that are ranked in advance, and a parameter vector is obtained. By repeating this optimization process, a plurality of evaluation indices can be learned at once.

ここで、2枚の画像iおよびjにおいて、2つの評価指標wuおよびwvについて最適化を行うことを考える。 Here, it is considered that the two evaluation indexes w u and w v are optimized in the two images i and j.

2つの評価指標wuおよびwvは、iとjについて順序関係がある評価指標である場合と、順序関係が等しい評価指標である場合とがある。そこで、考えられる組み合わせ、すなわち順序関係について、2つとも順序関係がある場合と、一方に順序関係が存在し他方は順序関係が等しい場合と、2つとも順序関係が等しい場合についてそれぞれ考える。 The two evaluation indexes w u and w v may be evaluation indexes having an order relationship with respect to i and j, or may be evaluation indexes having the same order relationship. Accordingly, regarding possible combinations, that is, the order relationship, two cases have an order relationship, one case has an order relationship and the other has the same order relationship, and the two have the same order relationship.

まず、2つとも順序関係がある場合について説明する。   First, the case where the two have an order relationship will be described.

ここでヒンジロス関数を以下の数式20のように与える。   Here, the hinge loss function is given as in Equation 20 below.

Figure 0006033724
Figure 0006033724

次に、次の数式21により逐次的に最適化することでパラメータベクトルwuおよびwvを求める。実施例1と同様に、ソフトマージンを導入する。 Next, parameter vectors w u and w v are obtained by sequentially optimizing with the following equation (21). As in the first embodiment, a soft margin is introduced.

Figure 0006033724
Figure 0006033724

数式21を最適化することによりパラメータベクトルを算出することができる。 The parameter vector can be calculated by optimizing Equation 21.

次に、一方に順序関係が存在し他方は順序関係が等しい場合について説明する。ここではwuについて順序関係が存在し、wvについて順序関係が等しいとする。wuについて順序関係が等しく、wvについて順序関係が存在する場合は、評価指標wu、wvを入れ替えればよい。 Next, a case where one side has an order relationship and the other has the same order relationship will be described. Here, it is assumed that the order relation exists for w u and the order relation for w v is equal. If the order relationship is equal for w u and the order relationship exists for w v , the evaluation indices w u and w v may be switched.

ここで、ヒンジロス関数を以下の数式22のように与える。   Here, the hinge loss function is given by the following formula 22.

Figure 0006033724
Figure 0006033724

次の数式23および数式24により逐次的に最適化することでパラメータベクトルwuおよびwvを求める。実施例1と同様に、ソフトマージンを導入する。 The parameter vectors w u and w v are obtained by sequentially optimizing with the following equations 23 and 24. As in the first embodiment, a soft margin is introduced.

Figure 0006033724
Figure 0006033724

Figure 0006033724
Figure 0006033724

数式23および数式24において、νはスラック変数であり、ν≧0である。また、Dは正則化項とのバランスをとる、正のハイパーパラメータである。式(23)および(24)を最適化することによりパラメータベクトルwuおよびwvを算出できる。 In Equations 23 and 24, ν is a slack variable, and ν ≧ 0. D is a positive hyperparameter that balances the regularization term. The parameter vectors w u and w v can be calculated by optimizing the equations (23) and (24).

次に、2つとも順序関係が等しい場合について説明する。同様にヒンジロス関数を以下の数式25のように与える。   Next, the case where the two are in the same order relationship will be described. Similarly, the hinge loss function is given by the following formula 25.

Figure 0006033724
Figure 0006033724

次の数式26により逐次的に最適化することでパラメータベクトルwuおよびwvを求める。実施例1と同様に、ソフトマージンを導入する。 The parameter vectors w u and w v are obtained by sequentially optimizing with the following equation (26). As in the first embodiment, a soft margin is introduced.

Figure 0006033724
Figure 0006033724

この式において、ξはスラック変数であり、ξ≧0である。また、Cは正則化項とのバランスをとる、正のハイパーパラメータである。上式を最適化することによりパラメータベクトルwuおよびwvを算出できる。 In this equation, ξ is a slack variable, and ξ ≧ 0. C is a positive hyperparameter that balances the regularization term. The parameter vectors w u and w v can be calculated by optimizing the above equation.

以上のように、本実施例によれば、複数の評価指標について一度に学習を行うことができる。   As described above, according to the present embodiment, it is possible to learn a plurality of evaluation indexes at once.

次に、本発明の実施例3として、映像(動画像)が入力されたとき、映像中の撮像時刻の異なる複数のフレームからベストショット画像を抽出する例について説明する。映像の各フレームを各時刻において評価し、閾値を上回ったフレームをベストショット画像として表示する。図13は本実施例におけるブロック図である。図1における画像処理部109を、ベストショット画像抽出部1301に変更する。その他、実施例1と同一の符号を付けたものに関しては、実施例1と同様であるため、説明を省略する。ベストショット画像抽出部1301の構成を図14に示す。ベストショット画像抽出部1301は、フレーム抽出部1401、特徴量ベクトル抽出部902、評価値算出部903、閾値処理部1402を具備する。ベストショット画像抽出部1301の処理について図15を用いて説明する。   Next, as Example 3 of the present invention, an example will be described in which when a video (moving image) is input, a best shot image is extracted from a plurality of frames having different imaging times in the video. Each frame of the video is evaluated at each time, and a frame exceeding the threshold is displayed as a best shot image. FIG. 13 is a block diagram in the present embodiment. The image processing unit 109 in FIG. 1 is changed to a best shot image extraction unit 1301. The other components having the same reference numerals as those in the first embodiment are the same as those in the first embodiment, and thus the description thereof is omitted. The configuration of the best shot image extraction unit 1301 is shown in FIG. The best shot image extraction unit 1301 includes a frame extraction unit 1401, a feature vector extraction unit 902, an evaluation value calculation unit 903, and a threshold processing unit 1402. The processing of the best shot image extraction unit 1301 will be described with reference to FIG.

まずステップ1501において、映像が入力される。次に、ステップ1502において、フレーム抽出部1401は、入力された映像から、フレームを抽出する。次に、ステップ1503において、抽出されたフレームから、特徴量ベクトル抽出部902により、特徴量ベクトルが抽出される。次に、ステップ1504において、評価値算出部903により評価値が算出される。最後にステップ1505において、閾値処理部1402は、計算された評価値とあらかじめ設定しておいた閾値を比較し、閾値を上回った場合、当該フレームを選択する。選択された画像は表示部110により表示される。   First, in step 1501, an image is input. Next, in step 1502, the frame extraction unit 1401 extracts a frame from the input video. Next, in step 1503, a feature amount vector extraction unit 902 extracts a feature amount vector from the extracted frame. Next, in step 1504, the evaluation value calculation unit 903 calculates an evaluation value. Finally, in step 1505, the threshold processing unit 1402 compares the calculated evaluation value with a preset threshold, and if the threshold is exceeded, the frame is selected. The selected image is displayed on the display unit 110.

また、評価値が閾値を上回った最初のフレームを選択して表示する処理に替えて、フレーム選択処理を、対象時刻範囲内のフレームについて繰り返して行い、複数の選択結果を保持しておき、映像が対象時刻範囲内の最後まで入力された後に、選択されたフレームの中から最良のフレームを最終的に表示するようにしてもよい。   Also, instead of the process of selecting and displaying the first frame whose evaluation value exceeds the threshold value, the frame selection process is repeated for frames within the target time range, and a plurality of selection results are held, May be finally displayed from among the selected frames after the input to the end of the target time range.

以上のように、本実施例によれば、映像から評価指標に基づいたベストショットを抽出することが可能である。   As described above, according to the present embodiment, it is possible to extract the best shot based on the evaluation index from the video.

次に、本発明の実施例4について説明する。   Next, Embodiment 4 of the present invention will be described.

診断画像表示装置102において、生成した複数の処理結果をユーザに提示し、回答結果を収集する形態について説明する。本実施例では、ユーザ毎の評価指標を個別に学習することができ、よりユーザの評価指標と相関の高い出力を得られるようになる。   In the diagnostic image display apparatus 102, a form in which a plurality of generated processing results are presented to the user and answer results are collected will be described. In this embodiment, the evaluation index for each user can be learned individually, and an output having a higher correlation with the user's evaluation index can be obtained.

実施例4について図を用いて説明する。図16は本実施例における構成を示すブロック図である。診断画像表示装置102において、画像処理部109を、処理画像生成部901に変更する。また、ユーザの回答を取得する、回答入力部1601を追加する。また、回答入力部1601は通信部107と接続されている。なお、同一の符号をつけた部分については上述の実施例と同一とし、説明を省略する。   Example 4 will be described with reference to the drawings. FIG. 16 is a block diagram showing a configuration in the present embodiment. In the diagnostic image display apparatus 102, the image processing unit 109 is changed to a processed image generation unit 901. In addition, an answer input unit 1601 for acquiring the user's answer is added. The answer input unit 1601 is connected to the communication unit 107. In addition, about the part which attached | subjected the same code | symbol, it is the same as the above-mentioned Example, and abbreviate | omits description.

表示部110では、処理画像生成部901により生成された複数の処理結果を提示し、ユーザに対して所定の評価指標についての順位を決定するように促す表示を行う。たとえば、「かわいらしさ」という評価指標について提示を行う場合の表示例を図に示す。図17に2枚の場合の提示例を示す。また、図18に3枚の画像を提示する場合の提示例を示す。いずれの場合も、複数の画像とともに、ユーザに対して「かわいらしさ」という評価指標についての順位を決定するように促す表示を行っている。   The display unit 110 presents a plurality of processing results generated by the processed image generation unit 901, and performs a display that prompts the user to determine the rank of a predetermined evaluation index. For example, a display example in the case of presenting the evaluation index “cuteness” is shown in the figure. FIG. 17 shows a presentation example in the case of two sheets. FIG. 18 shows an example of presentation when three images are presented. In any case, together with a plurality of images, a display that prompts the user to determine the rank of the evaluation index “cuteness” is performed.

回答入力部1601は、上記の表示に従うユーザの選択結果を取得する。取得方法としては、キーボードやマウス、ボタン、タッチパネルによる選択等が考えられる。通信部107は回答結果と提示した画像を学習サーバ101に送信する。   The answer input unit 1601 acquires the selection result of the user according to the above display. As an acquisition method, selection with a keyboard, mouse, button, touch panel, or the like can be considered. The communication unit 107 transmits the answer result and the presented image to the learning server 101.

学習サーバ101は、通信部106で受信した回答結果および提示画像を、データベース104に記録する。記録された回答結果および提示画像は、次に評価パラメータ決定部105が学習を行なう際に用いられる。   The learning server 101 records the answer result and the presentation image received by the communication unit 106 in the database 104. The recorded answer results and presentation images are used when the evaluation parameter determination unit 105 next performs learning.

再学習を行うタイミングは、新たな回答結果が得られたときでもよいし、間隔を決めて行ってもよい。リアルタイムに最適な結果を得るためには、新たな回答結果が得られるたびに学習を行うことが望ましい。しかし一般に学習には多大な時間を要するため、ある程度の期間中に記録された回答結果についてまとめて学習を行う方が再学習の回数が減り、計算時間を短縮できる。   The timing for performing the relearning may be when a new answer result is obtained or may be determined at an interval. In order to obtain an optimal result in real time, it is desirable to perform learning whenever a new answer result is obtained. However, since learning generally requires a great deal of time, it is possible to reduce the number of re-learning operations and to shorten the calculation time by collectively learning the response results recorded during a certain period.

以上のように、本実施例によれば、診断画像表示装置において、ユーザの回答を回収し、学習結果に反映させることで、よりユーザの評価指標と相関の高い出力が得られる。   As described above, according to the present embodiment, the diagnostic image display apparatus collects the user's answer and reflects it in the learning result, thereby obtaining an output having a higher correlation with the user's evaluation index.

以上、複数の本発明の複数の実施例について説明した。これらの複数の実施例は、それぞれ独立して実施してもよいし、組合せて実施しても良い。すなわち、実施例2に開示する学習処理を、実施例3、4の学習サーバに搭載してもよい。また、実施例3のベストショット画像抽出部を、実施例1、2、4の診断画像表示装置に搭載してもよい。また、実施例4のユーザに対して所定の評価指標についての順位を決定するように促す表示を行う表示部及び回答入力部の構成を実施例1、2、3に適用してもよい。   In the foregoing, a plurality of embodiments of the present invention have been described. A plurality of these embodiments may be carried out independently or in combination. In other words, the learning process disclosed in the second embodiment may be installed in the learning servers of the third and fourth embodiments. Further, the best shot image extraction unit of the third embodiment may be mounted on the diagnostic image display devices of the first, second, and fourth embodiments. In addition, the configuration of the display unit and the answer input unit that perform display for prompting the user to determine the order of the predetermined evaluation index in the fourth embodiment may be applied to the first, second, and third embodiments.

101 学習サーバ
102 診断画像表示装置
103 ネットワーク
104 データベース
105 評価パラメータ決定部
106 通信部(サーバ側)
107 通信部(診断画像表示装置側)
108 画像入力部
109 画像処理部
110 表示部
201 特徴量生成部
202 特徴量ベクトル抽出部
203 評価パラメータ算出部
401 抽出されたパッチ群
402 第1の教師なし学習による代表パッチ群
403 特徴量
501 特徴量抽出対象画像
901 処理画像生成部
902 特徴量ベクトル抽出部
903 評価値算出部
904 判定部
1301 ベストショット画像抽出部
1401 フレーム抽出部
1402 閾値処理部
1601 回答入力部
101 Learning Server 102 Diagnostic Image Display Device 103 Network 104 Database 105 Evaluation Parameter Determination Unit 106 Communication Unit (Server Side)
107 Communication unit (diagnostic image display device side)
108 image input unit 109 image processing unit 110 display unit 201 feature quantity generation unit 202 feature quantity vector extraction unit 203 evaluation parameter calculation unit 401 extracted patch group 402 representative patch group 403 by first unsupervised learning feature quantity 501 feature quantity Extraction target image 901 Processed image generation unit 902 Feature quantity vector extraction unit 903 Evaluation value calculation unit 904 Determination unit 1301 Best shot image extraction unit 1401 Frame extraction unit 1402 Threshold processing unit 1601 Answer input unit

Claims (13)

サーバと診断画像表示装置とを含む画像表示システムであって、
前記サーバは、
ネットワークを介して他の機器と情報を送受信可能な通信部と、
画像群を記憶するデータベースと、
前記画像群に基いて評価パラメータを決定する評価パラメータ決定部と、
を備え、
前記診断画像表示装置は、
ネットワークを介して他の機器と情報を送受信可能な通信部と、
診断画像を入力する画像入力部と、
前記画像入力部で入力された画像について画像処理を行う画像処理部と、
前記画像処理部で画像処理を行った画像を表示する表示部と
を備え、
前記サーバの前記データベースに記憶される画像群は、予め所定の評価指標に基づいて順位付けされた画像群であり、
前記評価パラメータ決定部は、
前記データベースに記憶される画像群についての教師なし学習によって特徴量を生成し、生成された前記特徴量を用いて、前記画像群のそれぞれの画像から特徴量ベクトルを抽出し、
前記画像群のうちの複数の画像を含む画像の組について、前記画像の組の順序関係がある場合とない場合に応じて、それぞれ異なる算出式を用いて前記評価パラメータを更新することにより、前記特徴量ベクトルを前記画像の組における所定の評価指標に基づいた順位に対応させる前記評価パラメータを算出し、
前記サーバの前記通信部から算出した前記評価パラメータを前記診断画像表示装置の前記通信部に送信し、
前記診断画像表示装置の前記画像処理部は、前記画像入力部で入力された画像について、前記通信部で受信した評価パラメータがより好適となるように、前記画像処理を行うことを特徴とする画像表示システム。
An image display system including a server and a diagnostic image display device,
The server
A communication unit capable of transmitting and receiving information to and from other devices via a network;
A database for storing images;
An evaluation parameter determination unit for determining an evaluation parameter based on the image group;
With
The diagnostic image display device includes:
A communication unit capable of transmitting and receiving information to and from other devices via a network;
An image input unit for inputting a diagnostic image;
An image processing unit that performs image processing on the image input by the image input unit;
A display unit for displaying an image subjected to image processing by the image processing unit,
The image group stored in the database of the server is an image group ranked in advance based on a predetermined evaluation index,
The evaluation parameter determination unit
Generating a feature quantity by unsupervised learning for the image group stored in the database, and extracting a feature quantity vector from each image of the image group using the generated feature quantity;
For the set of images including a plurality of images in the image group, depending on whether or not there is an order relationship of the set of images, by updating the evaluation parameter using different calculation formulas, Calculating the evaluation parameter that associates a feature vector with a rank based on a predetermined evaluation index in the set of images;
Transmitting the evaluation parameter calculated from the communication unit of the server to the communication unit of the diagnostic image display device;
The image processing unit of the diagnostic image display device performs the image processing on the image input by the image input unit so that the evaluation parameter received by the communication unit is more suitable. Display system.
請求項1に記載の画像表示システムであって、  The image display system according to claim 1,
前記サーバの前記評価パラメータ決定部は、前記データベースに記憶される画像群において、複数の異なる評価指標に基づく順位付けがなされている場合、前記画像の組毎に前記複数の異なる評価指標から2つの指標を抽出し、抽出した2つの指標に基づき前記評価パラメータを更新することにより、前記複数の異なる評価指標に対するそれぞれの前記評価パラメータを一度に算出することを特徴とする画像表示システム。  When the ranking based on a plurality of different evaluation indexes is made in the image group stored in the database, the evaluation parameter determination unit of the server uses two of the plurality of different evaluation indexes for each set of images. An image display system, wherein an index is extracted, and the evaluation parameter for each of the plurality of different evaluation indices is calculated at a time by updating the evaluation parameter based on the two extracted indices.
請求項2に記載の画像表示システムであって、  The image display system according to claim 2,
前記サーバの前記データベースに記憶される画像群は、前記診断画像表示装置において生成された順位に関する情報とともに、前記診断画像表示装置の前記通信部から送信され、前記サーバの前記通信部が受信した画像を含むことを特徴とする画像表示システム。  The image group stored in the database of the server is an image transmitted from the communication unit of the diagnostic image display device and received by the communication unit of the server together with information on the order generated in the diagnostic image display device. An image display system comprising:
請求項3に記載の画像表示システムであって、  The image display system according to claim 3,
前記診断画像表示装置において生成された順位に関する情報は、前記診断画像表示装置の前記表示部が、複数の画像の表示と、該複数の画像についての所定の評価指標における順位の決定をユーザに促す表示を行い、前記診断画像表示装置が備えるユーザ回答入力部が入力した入力結果にもとづいて生成されることを特徴とする画像表示システム。  The information about the ranks generated in the diagnostic image display device is such that the display unit of the diagnostic image display device prompts the user to display a plurality of images and to determine the rank of a predetermined evaluation index for the plurality of images. An image display system that performs display and is generated based on an input result input by a user answer input unit included in the diagnostic image display device.
ネットワークを介して診断画像表示装置と接続可能なサーバであって、  A server connectable with a diagnostic image display device via a network,
ネットワークを介して前記診断画像表示装置と情報を送受信可能な通信部と、    A communication unit capable of transmitting and receiving information to and from the diagnostic image display device via a network;
画像群を記憶するデータベースと、    A database for storing images;
前記画像群に基いて評価パラメータを決定する評価パラメータ決定部と、    An evaluation parameter determination unit for determining an evaluation parameter based on the image group;
を備え、  With
前記データベースに記憶される画像群は、予め所定の評価指標に基づいて順位付けされた画像群であり、  The image group stored in the database is an image group that is ranked in advance based on a predetermined evaluation index,
前記評価パラメータ決定部は、  The evaluation parameter determination unit
前記データベースに記憶される画像群についての教師なし学習によって特徴量を生成し、生成された前記特徴量を用いて、前記画像群のそれぞれの画像から特徴量ベクトルを抽出し、  Generating a feature quantity by unsupervised learning for the image group stored in the database, and extracting a feature quantity vector from each image of the image group using the generated feature quantity;
前記画像群のうちの複数の画像を含む画像の組について、前記画像の組の順序関係がある場合とない場合に応じて、それぞれ異なる算出式を用いて前記評価パラメータを更新することにより、前記特徴量ベクトルを前記画像の組における所定の評価指標に基づいた順位に対応させる前記評価パラメータを算出し、  For the set of images including a plurality of images in the image group, depending on whether or not there is an order relationship of the set of images, by updating the evaluation parameter using different calculation formulas, Calculating the evaluation parameter that associates a feature vector with a rank based on a predetermined evaluation index in the set of images;
前記サーバの前記通信部から算出した前記評価パラメータを前記診断画像表示装置の前記通信部に送信することを特徴とするサーバ。  The server, wherein the evaluation parameter calculated from the communication unit of the server is transmitted to the communication unit of the diagnostic image display device.
請求項5に記載のサーバであって、  The server according to claim 5, wherein
前記評価パラメータ決定部は、前記データベースに記憶される画像群において、複数の異なる評価指標に基づく順位付けがなされている場合、前記画像の組毎に前記複数の異なる評価指標から2つの指標を抽出し、抽出した2つの指標に基づき前記評価パラメータを更新することにより、前記複数の異なる評価指標に対するそれぞれの評価パラメータを一度に算出することを特徴とするサーバ。  The evaluation parameter determination unit extracts two indexes from the plurality of different evaluation indexes for each set of images when ranking based on a plurality of different evaluation indexes is performed in the image group stored in the database. And updating the evaluation parameters based on the two extracted indices to calculate each evaluation parameter for the plurality of different evaluation indices at a time.
請求項6に記載のサーバであって、  The server according to claim 6, wherein
前記データベースに記憶される画像群は、前記診断画像表示装置において生成された順位に関する情報とともに、前記診断画像表示装置から送信され、前記通信部が受信した画像を含むことを特徴とするサーバ。  The server, wherein the image group stored in the database includes images transmitted from the diagnostic image display device and received by the communication unit, together with information related to the order generated in the diagnostic image display device.
ネットワークを介してサーバと接続可能な診断画像表示装置であって、  A diagnostic image display device connectable with a server via a network,
ネットワークを介して前記サーバと情報を送受信可能な通信部と、  A communication unit capable of transmitting and receiving information to and from the server via a network;
診断画像を入力する画像入力部と、  An image input unit for inputting a diagnostic image;
前記画像入力部で入力された画像について画像処理を行う画像処理部と、  An image processing unit that performs image processing on the image input by the image input unit;
前記画像処理部で画像処理を行った画像を表示する表示部と  A display unit for displaying an image subjected to image processing by the image processing unit;
を備え、  With
前記画像処理部は、前記画像入力部で入力された画像について、複数の色補正処理を行って、複数の処理画像を生成し、前記通信部を介して前記サーバから受信した特徴量に基づいて、前記複数の処理画像のそれぞれの特徴量ベクトルを算出し、前記特徴量ベクトルに基づいて、前記サーバから受信した評価パラメータにおける前記複数の処理画像のそれぞれの評価値を算出し、前記複数の処理画像のうち前記評価値が最も良好な処理画像を、前記表示部に表示する画像として出力する  The image processing unit performs a plurality of color correction processes on the image input by the image input unit to generate a plurality of processed images, and based on the feature amount received from the server via the communication unit Calculating each feature amount vector of the plurality of processed images, calculating an evaluation value of each of the plurality of processed images in an evaluation parameter received from the server based on the feature amount vector, and The processed image with the best evaluation value is output as an image to be displayed on the display unit.
ことを特徴とする診断画像表示装置。  A diagnostic image display device characterized by that.
請求項8に記載の診断画像表示装置であって、  The diagnostic image display device according to claim 8,
前記通信部は、  The communication unit is
前記表示部が、複数の画像の表示と、該複数の画像についての所定の評価指標における順位の決定をユーザに促す表示を行い、前記診断画像表示装置が備えるユーザ回答入力部が入力した入力結果にもとづいて生成された、前記複数の画像についての所定の評価指標における順位に関する情報を前記サーバに送信することを特徴とする診断画像表示装置。  The display unit displays a plurality of images and displays prompting the user to determine the order of predetermined evaluation indexes for the plurality of images, and an input result input by a user answer input unit provided in the diagnostic image display device A diagnostic image display device that transmits information related to a rank in a predetermined evaluation index for the plurality of images generated based on the image to the server.
サーバと診断画像表示装置とを含む画像表示システムであって、  An image display system including a server and a diagnostic image display device,
前記サーバは、  The server
ネットワークを介して他の機器と情報を送受信可能な通信部と、    A communication unit capable of transmitting and receiving information to and from other devices via a network;
画像群を記憶するデータベースと、    A database for storing images;
前記画像群に基づいて評価パラメータを決定する評価パラメータ決定部と、    An evaluation parameter determination unit that determines an evaluation parameter based on the image group;
を備え、  With
前記診断画像表示装置は、  The diagnostic image display device includes:
ネットワークを介して他の機器と情報を送受信可能な通信部と、    A communication unit capable of transmitting and receiving information to and from other devices via a network;
撮像時刻が異なる複数のフレームを含む動画像が入力される画像入力部と、    An image input unit to which a moving image including a plurality of frames having different imaging times is input;
前記画像入力部で入力された前記動画像について、前記複数のフレームのうちから所定の画像を抽出する画像抽出部と、    An image extraction unit for extracting a predetermined image from the plurality of frames for the moving image input by the image input unit;
前記画像抽出部で抽出した画像を表示する表示部と    A display unit for displaying the image extracted by the image extraction unit;
を備え、  With
前記サーバの前記データベースに記憶される画像群は、予め所定の評価指標に基づいて順位付けされた画像群であり、  The image group stored in the database of the server is an image group ranked in advance based on a predetermined evaluation index,
前記評価パラメータ決定部は、  The evaluation parameter determination unit
前記データベースに記憶される画像群についての教師なし学習によって特徴量を生成し、生成された前記特徴量を用いて、前記画像群のそれぞれの画像から特徴量ベクトルを抽出し、  Generating a feature quantity by unsupervised learning for the image group stored in the database, and extracting a feature quantity vector from each image of the image group using the generated feature quantity;
前記画像群のうちの複数の画像を含む画像の組について、前記画像の組の順序関係がある場合とない場合に応じて、それぞれ異なる算出式を用いて前記評価パラメータを更新することにより、前記特徴量ベクトルを前記画像の組における所定の評価指標に基づいた順位に対応させる前記評価パラメータを算出し、  For the set of images including a plurality of images in the image group, depending on whether or not there is an order relationship of the set of images, by updating the evaluation parameter using different calculation formulas, Calculating the evaluation parameter that associates a feature vector with a rank based on a predetermined evaluation index in the set of images;
前記サーバの前記通信部から算出した前記評価パラメータを前記診断画像表示装置の前記通信部に送信し、  Transmitting the evaluation parameter calculated from the communication unit of the server to the communication unit of the diagnostic image display device;
前記診断画像表示装置の前記画像抽出部は、前記画像入力部で入力された動画像の前記複数のフレームについて、それぞれ前記通信部で受信した評価パラメータにおける評価値を算出し比較することにより、抽出する画像を決定する  The image extraction unit of the diagnostic image display apparatus extracts the plurality of frames of the moving image input by the image input unit by calculating and comparing evaluation values in the evaluation parameters received by the communication unit, respectively. Determine the image to be used
ことを特徴とする画像表示システム。  An image display system characterized by that.
請求項10に記載の画像表示システムであって、  The image display system according to claim 10,
前記サーバの前記評価パラメータ決定部は、前記データベースに記憶される画像群において、複数の異なる評価指標に基づく順位付けがなされている場合、記画像の組毎に前記複数の異なる評価指標から2つの指標を抽出し、抽出した2つの指標に基づき前記評価パラメータを更新することにより、前記複数の異なる評価指標に対するそれぞれの評価パラメータを一度に算出することを特徴とする画像表示システム。  When the ranking based on a plurality of different evaluation indexes is made in the image group stored in the database, the evaluation parameter determination unit of the server uses two of the plurality of different evaluation indexes for each set of recording images. An image display system, wherein an evaluation parameter is extracted for each of the plurality of different evaluation indices at a time by extracting an index and updating the evaluation parameter based on the two extracted indices.
請求項11に記載の画像表示システムであって、  The image display system according to claim 11,
前記サーバの前記データベースに記憶される画像群は、前記診断画像表示装置において生成された順位に関する情報とともに、前記診断画像表示装置の前記通信部から送信され、前記サーバの前記通信部が受信した画像を含むことを特徴とする画像表示システム。  The image group stored in the database of the server is an image transmitted from the communication unit of the diagnostic image display device and received by the communication unit of the server together with information on the order generated in the diagnostic image display device. An image display system comprising:
請求項12に記載の画像表示システムであって、  The image display system according to claim 12,
前記診断画像表示装置において生成された順位に関する情報は、前記診断画像表示装置の前記表示部が、複数の画像の表示と、該複数の画像についての所定の評価指標における順位の決定をユーザに促す表示を行い、前記診断画像表示装置が備えるユーザ回答入力部が入力した入力結果にもとづいて生成されることを特徴とする画像表示システム。  The information about the ranks generated in the diagnostic image display device is such that the display unit of the diagnostic image display device prompts the user to display a plurality of images and to determine the rank of a predetermined evaluation index for the plurality of images. An image display system that performs display and is generated based on an input result input by a user answer input unit included in the diagnostic image display device.
JP2013067840A 2013-03-28 2013-03-28 Image display system, server, and diagnostic image display device Active JP6033724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013067840A JP6033724B2 (en) 2013-03-28 2013-03-28 Image display system, server, and diagnostic image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013067840A JP6033724B2 (en) 2013-03-28 2013-03-28 Image display system, server, and diagnostic image display device

Publications (2)

Publication Number Publication Date
JP2014191675A JP2014191675A (en) 2014-10-06
JP6033724B2 true JP6033724B2 (en) 2016-11-30

Family

ID=51837838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013067840A Active JP6033724B2 (en) 2013-03-28 2013-03-28 Image display system, server, and diagnostic image display device

Country Status (1)

Country Link
JP (1) JP6033724B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6450287B2 (en) * 2015-09-16 2019-01-09 日本電信電話株式会社 Learning data generation device, learning device, learning data generation method, learning method, and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2644844B2 (en) * 1988-09-20 1997-08-25 株式会社日立製作所 Distributed image recognition system
JPH11306288A (en) * 1998-04-16 1999-11-05 Omron Corp Dictionary update system and dictionary update method
CN102647542B (en) * 2011-02-22 2014-07-09 株式会社理光 Image processing device and image processing method

Also Published As

Publication number Publication date
JP2014191675A (en) 2014-10-06

Similar Documents

Publication Publication Date Title
Zhang et al. Age progression/regression by conditional adversarial autoencoder
CN110349156B (en) Method and device for identifying lesion characteristics in fundus picture and storage medium
Prabhu et al. Few-shot learning for dermatological disease diagnosis
JP6090286B2 (en) Machine learning device, machine learning method, classification device, classification method, program
CN107155360A (en) Multilayer polymeric for object detection
JP6270182B2 (en) Attribute factor analysis method, apparatus, and program
JP2024019441A (en) Training method for specializing artificial intelligence model in deployed institution, apparatus performing the same
JP7111088B2 (en) Image retrieval device, learning method and program
Rivail et al. Modeling disease progression in retinal OCTs with longitudinal self-supervised learning
Bhimavarapu et al. Analysis and characterization of plant diseases using transfer learning
Kumar Jain et al. (Retracted) Modeling of human action recognition using hyperparameter tuned deep learning model
Zhang et al. Class relatedness oriented-discriminative dictionary learning for multiclass image classification
Geng et al. Facial age estimation by multilinear subspace analysis
CN107622071B (en) Clothes image retrieval system and method under non-source-retrieval condition through indirect correlation feedback
Sardari et al. View-invariant pose analysis for human movement assessment from rgb data
Kwasigroch et al. Deep neural network architecture search using network morphism
WO2018083853A1 (en) Visual field sensitivity estimation device, method for controlling visual field sensitivity estimation device, and program
JP6033724B2 (en) Image display system, server, and diagnostic image display device
JP6622150B2 (en) Information processing apparatus and information processing method
Ye et al. See what you see: Self-supervised cross-modal retrieval of visual stimuli from brain activity
Zhang et al. Multi-task sparse screening for predicting future clinical scores using longitudinal cortical thickness measures
CN112561935B (en) Intelligent classification method, device and equipment for brain images
JP2016014990A (en) Moving image search method, moving image search device, and program thereof
Demontis et al. Super-sparse regression for fast age estimation from faces at test time
Li et al. Assessing and improving intelligent physical education approaches using modified cat swarm optimization algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161026

R151 Written notification of patent or utility model registration

Ref document number: 6033724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151