しし座の鼻先にある比較的大型の銀河。
この写真、2つの点でどうもスカッとしない。ひとつめは40cmドブソニアンの追尾精度が想定より低いことで、露出時間10sで甘めに見て歩留まり75%といった程度。(駆動系にトラブルあり、修理したので改善するかどうか。)光学系が明るいので10sでも絵にはなるが、露出時間1時間で10GBほどにもなるデータの重さがまずはネック。
次に、AIによる画像処理の問題。いま流行りのBlurXTerminatorというニューラルネットワークベースのDeconvolutionツールを試してみたのだが。確かに驚くほど「解像感」は上がるものの、ハッブル宇宙望遠鏡の画像とつぶさに比較してみると「・・・ここにそんな模様ないよね?」みたいなのがある、気がする。M13のデータでも試してみたが、そちらは設定次第ではもっと酷くて、あるはずのない「星雲っぽいウネウネ」を高輝度部に無数に生み出していた。一般に言ってデータに存在する模様を強調するのはアリだが、存在しない模様を生み出すのはナシだろう。観賞用とはいえ科学写真の一種だしなぁ…。ところが一方で、一般的なDeconvolutionではどうしているかと言うとRingingなどのArtifactが生じないような設定を人が作っているわけで、本質的にはそれと何が違うのか?と問われるとちょっと答えに窮する。BXTで「画像復元」し、Starnetで「星雲を分離」し、Denoise-AIで「ノイズを除去」する。Generative AIの課題についてニュースでも報道される時代になったが、こんなニッチな趣味でも似たような問題に直面するとはね。
2023/3/18 21:46-02:00JST at Okayama pref. east. Nadirus16 mod (D=406mm) with Starizona Nexus (f/3, f=1200mm) and ASI1600MM-cool, on EQ platform without auto-guiding. LRGB composite, L for 624×10s with LPS-D1, RGB 141×10s, total exposure 2h07.5m. Cosmetic Correction (master dark ±3σ) and ABE applied for each linear subframe, and BTX applied in post processing.