前提
DICOM標準規格の読み方が分かる方が対象です。まだDICOM標準規格の読み方がわからない人は、そのうち技術ブログにアップするので、チェックして下さい。本来、DICOM画像は、医療機器から出力されます。 今回のように、一度作成された画像を後処理などで改変したり、全く別のDICOM画像として作成することは、研究目的以外では、一般的ではありません。このような二次的に作成されるDICOM画像は、セカンダリキャプチャと呼ばれています。
使い勝手のよい何でもやさんで、ときにはドーズレポートや、スクリーンキャプチャなどもこの形式で保存されます。
今回は、セカンダリキャプチャとしてのDICOM画像を出力します。
EclipseのMavenプロジェクトで、DCM4CHE5.18.x、ImageJ1.52辺りを使います(?の方は、前のブログ内容を参考にして下さい)。
全体像
- 適当な一般画像フォーマットを用意する(画像のタイプを調べておく)
- 画像を読み込む
- DICOM属性のDICOMデータセットを作成する
- 画像からピクセルデータを取得して、データセットにセットする
- 出力する
適当な一般画像フォーマットを用意する(画像の種類を調べておく)
今回は次のような画像を、画像のタイプ別に用意しました。すべてImageJサンプル画像です。
画像のタイプは、Image>Typeから変更できます。
8-bit Grayscale
16-bit Grayscale
32-bit Grayscale
RGB
ImageJからこれらの画像を作成するときは、すべてTiffフォーマットで作成します。
ImageJではその他の一般的なフォーマットでグレースケールを保存するとすべて8bitになってしまうため、注意が必要です。
補足
Overlayがある場合がありますが、今回は対象外です。いつになるかわかりませんが、KeyObjectなどと一緒に扱う方法を示せたらと思います。画像を読み込む
今回は、上記の画像をMavenプロジェクトのsrc/main/resourcesに事前にコピーしています。
DICOMデータの保存先(dest)は、プロジェクトフォルダとし、ファイル名は適当に決めます。
コード内の**は、8, 16, 32, RGBに読み替えて下さい。
dest = new File(".").getAbsolutePath()+File.separator+"testdcm**bit";
try {
URI uri = getClass().getClassLoader().getResource("**-bit-image.tif").toURI();
File f = new File(uri);
target = f.getAbsolutePath();
} catch (URISyntaxException e1) {
// TODO Auto-generated catch block
e1.printStackTrace();
}
ImagePlus imp = new ImagePlus(target);
DICOM属性のDICOMデータセットを作成する
セカンダリキャプチャに必要なメタデータを準備します。
メタデータは、DICOM IODを参照して、にらめっこして、選択します。これが大変な作業です。
Attributes dataset = new Attributes();//これがDICOMファイルの元
// type 1 attributes.
dataset.setString(Tag.SOPClassUID, VR.UI, UID.SecondaryCaptureImageStorage);
dataset.setString(Tag.StudyInstanceUID, VR.UI, UIDUtils.createUID());
dataset.setString(Tag.SeriesInstanceUID, VR.UI, UIDUtils.createUID());
dataset.setString(Tag.SOPInstanceUID, VR.UI, UIDUtils.createUID());
// type 2 attributes
dataset.setString(Tag.PatientID, VR.LO, "1234567890");
dataset.setString(Tag.PatientName, VR.LO, "DCM4CHE^TUTORIAL");
dataset.setString(Tag.PatientBirthDate, VR.DA, "20190907");
dataset.setString(Tag.PatientSex, VR.CS, "M");
dataset.setString(Tag.StudyDate, VR.DA, "20190907");
dataset.setString(Tag.StudyTime, VR.TM, "170648");
dataset.setString(Tag.AccessionNumber, VR.SH, "");
dataset.setString(Tag.ReferringPhysicianName, VR.PN, "Black^Jack");
dataset.setString(Tag.StudyID, VR.SH, "1");
dataset.setString(Tag.SeriesNumber, VR.IS, "1");
dataset.setString(Tag.ModalitiesInStudy, VR.CS, "");
dataset.setString(Tag.Modality, VR.CS, "OT");// OT:Other
dataset.setString(Tag.NumberOfStudyRelatedInstances, VR.IS, "1");
dataset.setString(Tag.NumberOfStudyRelatedSeries, VR.IS, "1");
dataset.setString(Tag.NumberOfSeriesRelatedInstances, VR.IS, "1");
補足
今回は一から構築していますが、実践では、すでにDICOMファイルがあることが多いので、そのような場合は、dcm2xmlツールを使ってDICOMをXMLに変換した後(このときに、ピクセルをよけておく:-B,--no-bulkdataオプションを使う) 、xml2dcmツールのコードを参照して、このXMLからAttributesオブジェクトを再構築した後に、 必要な部分を変更してからピクセルデータをセットすることも出来ます。
画像からピクセルデータを取得して、データセットにセットする
ここでは、画像のタイプ別にピクセルの処理方法を合わせます。
行っていることは、ImagePlusオブジェクトから、ピクセル配列(キャリブレーションされていない生のピクセル値)を取得して、ByteBufferに落としてから、datasetにセットしています。
その他、画像に関わる部分もここでDICOM属性が決まるので、一緒に設定します。
int type = imp.getBitDepth();
System.out.println(type);
if (type == 8) {
byte[] pixelDataByte = (byte[])imp.getProcessor().getPixelsCopy();
ByteBuffer byteBuffer = ByteBuffer.wrap(pixelDataByte);
dataset.setBytes(Tag.PixelData, VR.OB, byteBuffer.array());
dataset.setInt(Tag.BitsAllocated, VR.US, 8);
dataset.setInt(Tag.BitsStored, VR.US, 8);
dataset.setInt(Tag.HighBit, VR.US, 7);
}
else if (type == 16) {//unsigned
short [] pixelDataShort = (short[])imp.getProcessor().getPixelsCopy();
ByteBuffer byteBuffer = ByteBuffer.allocate(pixelDataShort.length * 2);
//先にByteOerderを整列させること
byteBuffer.order(ByteOrder.nativeOrder()).asShortBuffer().put(pixelDataShort);
dataset.setBytes(Tag.PixelData, VR.OW, byteBuffer.array());
dataset.setInt(Tag.BitsAllocated, VR.US, 16);
dataset.setInt(Tag.BitsStored, VR.US, 12);
dataset.setInt(Tag.HighBit, VR.US, 11);
}
else if (type == 32) {
float[] pixelDataFloat = (float[])imp.getProcessor().getPixelsCopy();
ByteBuffer byteBuffer = ByteBuffer.allocate(pixelDataFloat.length * 4);
byteBuffer.order(ByteOrder.nativeOrder()).asFloatBuffer().put(pixelDataFloat);
dataset.setBytes(Tag.FloatPixelData, VR.OF, byteBuffer.array());
dataset.setInt(Tag.BitsAllocated, VR.US, 32);
dataset.setInt(Tag.BitsStored, VR.US, 32);//unconfident
dataset.setInt(Tag.HighBit, VR.US, 31);//unconfident
}
// 64 bit gray, if IJ treats 64 bits.
// else if (dataBuffer instanceof DataBufferDouble) {
// double[] pixelDataDouble = (double[])imp.getProcessor().getPixelsCopy();
// ByteBuffer byteBuffer = ByteBuffer.allocate(pixelDataFloat.length * 8);
// byteBuffer.order(ByteOrder.nativeOrder()).asDoubleBuffer().put(pixelDataDouble);
// dataset.setBytes(Tag.DoubleFloatPixelData, VR.OD, byteBuffer.array());
// dataset.setInt(Tag.BitsAllocated, VR.US, 64);
// dataset.setInt(Tag.BitsStored, VR.US, 64);//unconfident
// dataset.setInt(Tag.HighBit, VR.US, 63);//unconfident
// }
else if (type == 24) {
pixelDataInt = (int[])imp.getProcessor().getPixels();
ByteBuffer byteBuffer = ByteBuffer.allocate(pixelDataInt.length * 3);
// byteBuffer.order(ByteOrder.nativeOrder()).asIntBuffer().put(IntBuffer.wrap(pixelDataInt));//why are you can not run ??
byte[] bytes = new byte[pixelDataInt.length * 3];
for (int i = 0; i < pixelDataInt.length; i++) {
// bytes[i * 4 + 3] = (byte) ((pixelDataInt[i] & 0xFF000000) >> 24);//a
bytes[i * 3] = (byte) ((pixelDataInt[i] & 0xFF0000) >> 16);//r
bytes[i * 3 + 1] = (byte) ((pixelDataInt[i] & 0xFF00) >> 8);//g
bytes[i * 3 + 2] = (byte) (pixelDataInt[i] & 0xFF);//b
}
byteBuffer = byteBuffer.order(ByteOrder.nativeOrder()).put(bytes);
dataset.setBytes(Tag.PixelData, VR.OB, byteBuffer.array());
RGBTest = byteBuffer.array();
dataset.setInt(Tag.BitsAllocated, VR.US, 8);
dataset.setInt(Tag.BitsStored, VR.US, 8);
dataset.setInt(Tag.BitsAllocated, VR.US, 8);
dataset.setInt(Tag.HighBit, VR.US, 7);
}
else {
throw new IllegalArgumentException("Not implemented for data buffer type: " + type);
}
上記の方法ではなく、BufferedImageオブジェクトを使う方法もあります。
注意しなければならないのは、「imp.getBufferedImage();」メソッドは、8-bitのBufferedImageしか返さないことです。
// if (dataBuffer instanceof DataBufferByte) {
// BufferedImage bi = imp.getBufferedImage();
// DataBuffer dataBuffer = bi.getRaster().getDataBuffer();
// byte[] pixelDataByte = ((DataBufferByte) dataBuffer).getData();
// byteBuffer = ByteBuffer.wrap(pixelDataByte);
// dataset.setBytes(Tag.PixelData, VR.OB, byteBuffer.array());
// dataset.setInt(Tag.BitsAllocated, VR.US, 8);
// dataset.setInt(Tag.BitsStored, VR.US, 8);
// dataset.setInt(Tag.BitsAllocated, VR.US, 8);
// dataset.setInt(Tag.HighBit, VR.US, 7);
// } else if ...
さらに、画像に関する情報を追加します。
ここでは2種類しか扱わない前提なので以下のみです。
if (type == 24) {
dataset.setString(Tag.PhotometricInterpretation, VR.CS, "RGB");
dataset.setInt(Tag.SamplesPerPixel, VR.US, 3);
dataset.setInt(Tag.PlanarConfiguration, VR.US, 0);
} else {
dataset.setString(Tag.PhotometricInterpretation, VR.CS, "MONOCHROME2");
dataset.setInt(Tag.SamplesPerPixel, VR.US, 1);
}
dataset.setInt(Tag.Rows, VR.US, imp.getHeight());
dataset.setInt(Tag.Columns, VR.US, imp.getWidth());
dataset.setInt(Tag.PixelRepresentation, VR.US, 0);// # 1 signed, 0 unsigned
出力する
DICOMデータとして出力します。
DicomOutputStream dos = null;
try {
dos = new DicomOutputStream(new File(dest));
Attributes fmi = dataset.createFileMetaInformation(UID.ExplicitVRLittleEndian);
dos.writeFileMetaInformation(fmi);
dataset.writeTo(dos);
} catch (IOException e) {
e.printStackTrace();
}
}
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} finally {
try {
dos.close();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
DICOMデータが正しく作成できているかどうかは、DICOMバリデーションツールを使うか、実際にDICOMビューワで開いて確認すると良いと思います。
32-bit, 64-bit grayscale画像は、病理などの専門的な領域で活躍していますが、一般の医療では、16-bit画像が主流です(32-bit, 64-bit grayscale画像に対応しているソフトウェアはなかなか見つからないと思います)。
16-bit grayscale の例 Weasis
Visionary Imaging Services, Inc
2019/9/8
コメント
コメントを投稿