Seit 2019 benutze ich das AVIStack2 nicht mehr, es wird seit ca. 10 Jahren nicht mehr weiterentwickelt und betreut.

Man kann es aber unter Linux mit Wine noch gut nutzen, unter Windows 10 soll es aber nicht mehr ablauffähig sein. Programmabbrüche treten unter Linux/Wine leider manchmal bei längeren AVI-Videos auf, auch das war ein Grund, auf Autostakkert und jetzt auf PSS umzusteigen

Hier aber noch einmal eine Kurzanleitung:


Die unten skizzierten Verarbeitungsschritte sind konfigurierbar und können dann automatisch in einem Schwung durchlaufen werden. Die Grundeinstellungen sind im Allgemeinen ausreichend für ein gutes Ergebnis. Weiter unten wird ein Verarbeitungsablauf für eine Videosequenz gezeigt.

 Verarbeitungsablauf in AVIStack:

1. ) Auswahl von Einzelbildern (Frames) nach Qualität (Schärfe und Helligkeit)

2.) Setzen von 2 Bildpunkten zum Ausrichten der ausgewählten Frames (Korrektur von
     Nachführungsdriften)

3.) Ausrichten der Bilder

4.) Setzen von Referenzpunkten, verteilt über die Bildfläche (generiert von AVIStack,
      manuell veränderbar) Diese Punkte dienen zum Ausgleich einer Bildverformung
     durch Seeingfehler.

5.) Aufteilung der Bilder in Bereiche um die Referenzpunkte. Bestimmung der
      Bildqualität in diesen Bereichen.

6.) Ausrichtung der Referenzpunkte über alle Frames

7.) Auswahl der besten Bereiche jedes Frames

8.) Stapelung  der Frames zum Resultat Rohbild.

Nach Start des Programms erscheinen drei Fenster, links die Steuerung der Eingabedateien, in der Mitte die Liste der Verarbeitungsschritte, jeweils aufklappbar zur Einstellung der betreffenden Parameter. Rechts ein Fenster für die Anzeige der Videoframes.

Nach Auswahl einer AVI-Datei kann im Schritt „Frame selection“  eine wählbare Anzahl von „besten“ Bildern automatisch bestimmt werden. Die Auswahl erfolgt über eine Bestimmung der Bildschärfe durch Kontrastanalyse. Die ausgewählten Frames können dann auch manuell überprüft werden, was aber in der Praxis unnötig ist.
In der Regel ist es sinnvoll, von einer Bildsequenz ungefähr 10% mit bester Qualität für die weitere Verarbeitung zu behalten. Die Wahrscheinlichkeit eine gute Auswahl Frames zu erhalten steigt natürlich mit der Länge der Videosequenz. Bei Kameras mit gößerer Pixelzahl steigt der Speicherbedarf einer AVI-Datei rasch auf einige Gigabyte.
Der Schritt „Frame Selection“ sollte auf „manuell“ gestellt sein, um den Auswahlprozeß evtl. nochmal zu steuen.
Im Fenster „Frame Selection“ wird „Quality Analysis“ gesetzt und mit dem Regler für  „Quality Cutoff“ der Prozentsatz für die Auswahl eingestellt. Ein Druck auf  „Calculate“ startet die Analyse.

  
                 


Nach dem Auswahlprozeß bleiben die grün markierten Frames, links unten, für den weiteren Ablauf übrig. Über „OK“ startet der nächste Schritt, die Ausrichtung der ausgewählten Frames.


Dieser Schritt des „Frame Alignment“ sollte bei einer Einzelverarbeitung auf „manual“ gestellt bleiben, um die Setzung der beiden Justierungspunkte zu kontrollieren. Bei Bildern mit wenig markanten Details kann es nötig sein, die Punkte auf andere Bilddetails zu setzen. Die anderen Schritte können dann mit den Voreinstellungen bis zum Schritt „Frame Stacking“ durchlaufen.


Vor dem endgültigen Stapelprozess kann noch ein „Flat“ gesetzt werden das beim Stapeln angewendet werden soll.
Sinnvoll ist dies einmal zum Unterdrücken von Flecken auf den Bildern, hervorgerufen durch Staubkörnchen auf dem Kamerasensor oder einer optischen Fläche.  Zum anderen zur Unterdrückung von Vignettierung und Interferenzeffekten bei der H-Alpha Fotografie. Kleine Kollimationsfehler im Strahlengang vor dem H-Alphafilter führen zu diesen Bildfehlern.

(Siehe auch den Bericht: 

)

Kleine Kamerasensoren, wie die der DMK21Au618 von TIS ( 4,46 x 3,8 mm) zeigen dies weniger als bei den gößeren Sensoren der Celestron Skyris 445M (6,26 x 5,01 mm). Diese beiden Kameras werden bei mir eingesetzt.
Die Erstellung eines Flats ist bei der H-Alpha Fotografie eigentlich immer sinnvoll und sollte unmittelbar vor der eigentlichen Aufnahme gemacht werden. Zur Flat-Erzeugung kann man einfach eine milchige Folie (z.B. eine Dokumentenhülle) vor die Teleskopöffnung hängen und einige Frames aufnehmen.
In AVIStack wird dann ein Flatfile erzeugt, indem man dies Video lädt und mit einem Rechtsklick die Auswahl „generate flatfile“ benutzt. Die Datei wird mit der Endung „.fits“ im Ergebnisordner gespeichert.
Bei Weißlicht (Kontinuum) Fotos ist dies nur im Notfall einer „verstaubten“ Optik nötig.
Im Unterfenster „Frame Stacking“ kann dann von „no flat frame“ auf ein flat-frame  umgeschaltet werden das über den Dateidialog links ausgewählt wird. „OK“ startet das Stapeln.

Hier ein Bild vom Stapelprozeß. Man erkennt in diesem Schnappschuß eines Fames die für das Stapeln verwendeten, qualitativ besten Bereiche.

Am Ende erscheint ein Teilfenster mit wählbaren Bildeigenschaften und Speicherort


In AVIStack ist in einem letzten Nachbearbeitungsschritt eine Bildschärfung aktivierbar. Es ist ein sogenanntes „wavelet“ Verfahren, das fein abgestimmt werden kann. Ich benutzte diesen Schritt nicht mehr, sondern bearbeitete die Rohbilder in externen Programmen.

Zum Vergleich das Ergebnisbild aus der Stapelung mit AVIStack über dem Bild nach der Schärfung und Tonwertanpassung in ImPPG:

 

 

 

AVIStack und imppg kann von folgenden Websites frei runtergeladen werden:

 www.avistack.de und https://greatattractor.github.io/imppg/