宇宙 銀河 星 望遠鏡 写真 相対性理論
撮影
望遠鏡とカメラの相性(改訂版)
光学系の分解能は光の回折による限界がある。点光源から発せられた光が光学系を通って焦点面に結像するとき、焦点像は点にならず、回折によりエアリーディスクと呼ばれる円盤像になる。2つの点光源が近づくとき、ぞの光源から作られた2つのエアリーディスクの中心と最縁が重なると2つの光源が分離できなくなる。この分離角θは、λを光の波長、dを口径とすれば、次式で求められる。
sinθ=1.22 x λ/d
θが十分小さい場合、sinθ=θなので
θ(ラジアン)=1.22 x λ/d
角度をラジアンから秒角に直すと
S(秒角)=1.22 x 0.2063 x λ(nm)/d(mm)
λに可視光の550nmを代入すると
S(秒角)=138.4/d(mm)
口径が大きくなればこの分離角は小さくなり、より細かい構造が見える。
一方、地球の大気は、常に揺れ動き、密度は刻々と変化している。密度の違いは光を屈折させる。宇宙を旅してきた光が地球に到着し、地球の大気の中を通過するとき、揺らぐ大気の中で光は何度も屈折を繰り返し、望遠鏡に達したときには一点ではなくある程度広がった範囲に到着する。この広がりは経験的に天文台が設置されているような高い山の上では2秒角、地表では4秒角程度と言われている。
上記の分離角の式から、口径が69mm以上ではエアリーディスクの直径は4秒角より小さくなるので、一般的な天体望遠鏡では、分解能は大気の揺れ(シンチレーション)が支配的となる。したがって、撮影システムは、大気による星像の広がりをもとに考えないといけない。
さらに、デジタルカメラの場合はナイキスト定理を考慮する必要がある。
ナイキスト定理とはオーディオのアナログデータをデジタルデータに変換する場合のサンプリングレートについての定理で、アナログデータ周波数の2倍の周波数でサンプリングすると、元のデータを完全に再現できるという定理である。デジタルカメラにおいては2倍よりは3倍の周波数でサンプリングすると再現性が良くなると言われている。例えば、大気のよる星像の広がりを4秒角とすれば、天体望遠鏡とカメラの組み合わせのうち、カメラのピクセルサイズが1.33秒角になるシステムが最適ということになる。
天体望遠鏡の焦点距離L(mm)、デジタルカメラのセンサーのピクセルサイズをp(μm)とすれば、1ピクセルあたりの分解能は
S(秒角)=206.3 x p(μm)/L(mm)
の関係がある。
これから、センサーのピクセルサイズは
P(μm)=S(秒角) x L(mm)/206.3
となる。
下表に、地表でのシンチレーションによる4秒角を元にした最適なサンプリングレートになるセンサーのピクセルサイズを鏡筒毎に計算してみた。この値が絶対という訳でなく、この近辺のピクセルサイズのカメラを用いると元データの再現性が高くなると言える。
なお、カメラレンズ35mmF1.4はエアリーディスクが大気による製造の広がり大きいので、エアリーディスクを元にピクセルサイズを計算している。
鏡筒 | 口径 | 焦点距離 | 口径比 | airy disc diameter | PixelSize of Optimal Sampling rate |
---|---|---|---|---|---|
(mm) | (mm) | F | (秒角) | (μm) | |
35mmF1.4 | 25 | 35 | 1.4 | 11.0 | 0.62 |
FSQ-85 | 85 | 450 | 5.3 | 3.2 | 2.9 |
MT160 | 160 | 1000 | 6.3 | 1.72 | 6.46 |
ε-180ED | 180 | 500 | 2.8 | 1.5 | 3.2 |
R200SS | 200 | 800 | 4.0 | 1.4 | 5.2 |
VC200L | 200 | 1800 | 9.0 | 1.38 | 11.6 |
GS-250 | 250 | 2000 | 8.0 | 1.1 | 12.9 |
GS-300 | 305 | 2440 | 8.0 | 0.9 | 15.8 |
AG12 | 350 | 1200 | 3.4 | 0.8 | 7.8 |
400 | 1600 | 4.0 | 0.69 | 10.7 |
|
HST | 2400 | 57600 | 24.0 | 0.115 | 10.7 |
センサーのピクセルサイズが分解能(最適なサンプリングレートによるピクセルサイズ)より小さい場合をオーバーサンプリング、逆に大きい場合をアンダーサンプリングという。
オーバーサンプリングの場合、情報が失われる訳ではないので問題はないが、本来1ピクセルで受ける光量が複数のピクセルに分散されてしまうため、Deep Skyのように淡い天体では、光量面では不利だ。当然、SN比も悪くなる。Deep Skyの場合は、オーバーサンプリングより、ピクセルサイズが分解能より大きいアンダーサンプリングのほうが美しい写真が多いと言われている。しかし、最近のセンサーはピクセルサイズが小さくなる傾向にある。この傾向は、長焦点でDeep Skyを撮影するにはあまり歓迎できない。
参考ホームページ
http://www.astro-imaging.com/
http://starizona.com/acb/ccd/advtheorynyq.aspx
DrizzleIntegration
PixInsightには複数画像を統合する機能としてImageIntegrationの他にDrizzleIntegrationが提供されている。
Drizzleとは可変ピクセル線形再構成アルゴリズムの通称で、ハッブル望遠鏡の画像処理のために開発された。ハッブルの初期のカメラはアンダーサンプリングのため望遠鏡の分解能を生かし切れず、これを克服するために開発されたアルゴリズムである。
PixInsightに導入されたDriizzleIntegrationも同じアルゴリズムを使っている。
Drrizzleが有効に働くためには
1.アンダーサンプリングの画像
2.ディザリングした画像
3.十分な量の画像
が必要である。
アンダーサンプリングの場合、情報が欠落することがある。例えば図1ではAとBを分離できない。しかし、ディザリングした画像、図2では分離できる。ディザリングによって情報を受け取る位置がずれた画像を複数集めることで、情報を復元できる。アンダーサンプリングの場合はディザリングが必須である。
Drrizleの処理を簡単に説明すると、まず、入力画像のピクセルを出力画像のサブサンプリングされたピクセルにマッピングする。マッピング前に入力画像のピクセルを縮小する。この縮小したピクセルを「雨滴」と呼ぶ。「雨滴」をオーバラップした領域に比例した重みで出力画像のオーバーラップするピクセル間で配分する。
これを図示したのが下図。Drrizleの説明でよく見かける図だ。
さて、通常の画像統合ImageIntegrationとどう違うのだろう。
ImageIntegrationでもDriizzleIntegrationでもStarAligmentで画像間の位置を合わせる。StarAligmentでは位置を合わせた画像が生成される。画像の生成では、出力画像のピクセルに対応する入力画像の位置のピクセル値を周辺のピクセル値からピクセル補間アルゴリズムで求める。周辺ピクセルとの距離に依存して補間値が決まる。こうして生成された画像をImageIntegrationは統合する。
一方、DriizzleIntegrationはStarAligmentで生成された画像は使わない。位置情報だけを使う。StarAligmentの入力となった元画像を使って画像統合が行われる。統合には、ピクセル補間は使用せず、オーバーラップ領域つまり面積に比例した元画像のピクセル値が使われる。
ImageIntegrationとDrizzleIntegrationの違いは統合した画像のピクセル値の求め方である。一方は距離に依存した値を使用し、一方は、面積に比例した値を使用する。この違いが統合された画像に違いを与えるだろうか。なにか違いがありそうな気がするのだが。。。。。
DrizzleIntegration その2
ImageIntegrationとDrizzleIntegrationの違いをできあがった画像で比べてみた。
なお、DrizzleIntegrationのパラメータはデフォルトからScale=1、Drop shrink=1.0に変更している。
非線形変換ではMidtonesは同じ値を使い、Shadowsはバックグランドの平均値をほぼ一致させた。非線形変換後のヒストグラムからもDrizzleIntegrationの方がバックグランドノイズが少ないことが解る。
DynamicPSFで測定したPSFは、DrizzleIntegrationの方が若干広がりが大きい。
ImageIntegrationとDrizzleIntegrationでは生成された画像に違いあるが、どちらが優れているか、優劣はつけ難い。画像処理(画像復元、シャープ処理やノイズリダクション)によってこの差は目立たなくなるだろう。結論としてオーバサンプリング画像にDrizzleIntegrationを使うことに問題はないが、推奨するほどではない。
でも、最新のPixInsightでは、StarAligmentはGenerate Drizzle Dataが初期値として有効になっている。これは何を意味するのだろう。
パルスガイドの勧め
やっぱりペンタックスのカメラには対応していないか、などと思いながらステラショットの仕様をつらつら眺めていたら、気になる文面が目に入った。
「オートガイドケーブルなしでオートガイドできるか?はい、できます。この方法を「パルスガイド方式」と呼び、オートガイドケーブルが不要になる利点があります。ただし望遠鏡の微動でガイド補正をするため、引き戻し量が大きすぎたり小さすぎたりしてうまくガイドができない場合もありえます。」
星見庵ではASCOMドライバーを使い出してからパルスガイド方式でガイドしている。ガイドソフトはステラショットでなはなくPHD2。ASCOMドライバーのPulseGuide機能を使っている。赤道儀のコントローラーはNS-5000、これは、LX200互換のコマンド体系なので、ステラショットと同じように望遠鏡の微動でガイド補正することになる。ただ、いままで、特にガイド量が不正になってガイドができないことはない。
パルスガイド方式とガイド端子を使う方式とで何が違うのか、PHD2のソースコードを調べてみた。PHD2でもパルスガイド方式とガイド端子方式を選択できる。
PHD2の処理
●ガイド端子方式。StarlightXpressのLodeStarカメラにコマンドを送出している。(カメラによってコマンドは異なる)
ST4PulseGuideScope(int direction, int duration)
{
.....
sxSetSTAR2000(hCam,direction);
WorkerThread::MilliSleep(duration);
dircmd = 0;
sxSetSTAR2000(hCam,dircmd);
retrn false;
}
●パルスガイド方式。ASCOMのPulseGuideを呼び出す。
ST4PulseGuideScope(int direction, int duration)
{
.....
cam.IDisp()->Invoke(PulseGuide, direction, duration);
.....
while(ASCOM_IsMoving(cam.IDisp())
{
wxMilliSleep(50);
.....
}
return false;
}
ASCOMのドライバーでの処理(LX200用)
■ASCOMのPulseGuide
PulseGuide(int direction, int duration)
{
.....
SetSlewRate('G');
MoveTo(direction);
System::Threading::Thread::Sleep(duration);
HaltSlewing(direction);
}
ガイド端子方式では、ガイドソフトはガイドカメラにコマンドを送り、ガイドカメラのファームウェアがST4端子の信号をオン・オフしている。一方、パルスガイド方式では、ガイドソフトは赤道儀のコントローラーにコマンドを送り、赤道儀のコントローラのファームウェアがモーター信号をオン・オフしている。
ST4ガイド端子を使う方法はハードウェア制御、パルスガイド方式はソフトウェア制御と思われがちだが、こうしてみると、違いはモーターの信号を作り出すのが、ガイドカメラか赤道儀のコントローラかの違いだけなので、精度もタイムラグもほとんど変わらないはずだ。また、最新のインテリジェンスなコントローラではバックラッシュ制御などのため、ST4ガイド端子は直接モーターに接続せず、ファームウェアで処理していることもある。ステラショットも全く使えないとは書いてないので、一度、パルスガイド方式を試してみてはどうだろう。
ただ、ST4ガイド端子とコマンド経由では最小駆動時間が異なる場合がある(E-ZEUSはコマンド経由では短い時間でモータ駆動できない)。コマンド経由の最小駆動時間が長い場合は、ガイド鏡の焦点距離が短いとパルスガイド方式ではガイドができないかもしれない。