Platt gesagt ist eine Image Sicherung eines so großen Datenträgers Schwachsinn.
Ja, man kann Datenträger so sichern. Ja, es hat auch schon Fälle gegeben, wo man erfolgreich von einer solchen Sicherung ein System wiederherstellen konnte. Aber danach hört es auch schon auf...
Es ist nicht praktikabel, bei 128 GByte nach dem Erstellen des Image (wie lange dauert das eigentlich?) noch einmal einen kompletten Vergleich laufen zu lassen. Der Vergleich wäre auch nur bedingt hilfreich, denn wenn auf der Platte an einer bestimmten Stelle ein unbemerkter Fehler auftritt, so kann derselbe Fehler auch beim zweiten Lesevorgang auftreten.
Die Sicherung braucht wahnsinnig viel Platz. Man kann das Image natürlich packen, dennoch ist so ein Image größer als nötig.
Du kannst das Image auch nicht probehalber starten, allenfalls in einem virtualisierten Raspberry (dazu muss aber der ARM emuliert werden, das geht nicht mit jedem x-beliebigen Hypervisor) - oder Du sicherst auf einer zweiten SSD und schließt diese dann an... teuer und ebenfalls nicht wirklich praktikabel.
Unterm Strich ist eine solche Sicherung also nahezu wertlos.
Wenn Du openHABian als Grundlage verwendet hast (das offizielle openHAB Image für den Pi), könntest Du Amanda nutzen. Das ist allerdings auch nicht wirklich besser

weil es ebenfalls Vollbackups als Image erstellt, mit ähnlichen Problemen. Einziger Vorteil hier: der Pi muss nicht runtergefahren werden, Amanda erstellt das Backup im laufenden Betrieb. Es sichert ganz normal im Linux Dateisystem, notfalls könnte man also auf dem Windows Rechner eine Freigabe einrichten und diese im Raspberry mounten.
Besser wäre es, die Sicherung über rsync laufen zu lassen. Dabei werden die Dateien gesichert. Mit dem passenden Script passiert das sogar extrem komfortabel und sehr zeitsparend. Allerdings brauchst Du dazu ein weiteres System, auf welchem rsync laufen kann, am besten 24/7. Hast Du einen zweiten Pi, wäre das ein heißer Kandidat. Ein Script (z.B. rsnapshot) startet in regelmäßigen Abständen - z.B. alle zehn Minuten - und zieht alle Änderungen seit dem letzten Durchlauf. Dein Backup ist also zu keinem Zeitpunkt älter als (im Beispiel) zehn Minuten. Dabei nutzt rsync Hardlinks. Virtuell hast Du alle zehn Minuten ein Vollbackup, auf das Du auf Dateiebene zugreifen kannst. Dateien, die sich nicht geändert haben, benötigen aber nur einmal Platz auf der Festplatte, sie werden sozusagen vom letzten Backup "vererbt". rsync erkennt, ob eine Datei verändert wurde und überträgt nur die Änderungen, nicht die gesamte Datei. Ein Backup nach dem initialen Backup dauert im Schnitt weniger als eine Minute im laufenden Betrieb.
rsnapshot kennt verschiedene Aufhebezyklen, die parallel laufen, also z.B. alle zehn Minuten (6 Sätze), alle Stunde (8 Sätze), täglich (7 Sätze), wöchentlich (5 Sätze), monatlich (12 Sätze) - Macht insgesamt 31 Sicherungen, die im unmittelbaren Zeitraum in 10-Minuten-Schritten, dann in Stundenschritten für einen Arbeitstag, dann täglich, dann wöchentlich, dann monatlich bis ein Jahr zurückreichen. Man kann also im Zweifel noch Änderungen nachvollziehen, die sehr lange zurückliegen. Die verschiedenen Zyklen sind frei konfigurierbar. Natürlich sollte man es auch nicht übertreiben, denn ein Linux Dateisystem kann auch an seine Nutzbarkeits-Grenzen stoßen
Eine weitere Alternative wäre, die zweite Partition auf der SSD zu verkleinern. gewöhnlich spielt man das initiale Image auf dem Datenträger auf, Raspberry Pi OS vergrößert das Image dann beim ersten Start auf die restliche Größe des Datenträgers. Für das root Dateisystem reichen aber 16 GByte vollkommen aus, selbst wenn man zusätzlich noch MariaDB und InfluxDB laufen lässt (welche naturgemäß echt viel Platz für Daten auf dem Datenträger benötigen). Erfahrene Unix User (Linux ist unixoid) legen eher viele kleine Partitionen an, als eine große. Leider ist es einigermaßen schwierig, das nachträglich einzurichten, das ist eher was für ein komplett neues System. Aber zumindest das Verkleinern sollte funktionieren, allerdings (da es die root Partition betrifft) nicht aus dem laufenden System heraus. Du brauchst also ein zweites System (das kann auch eine SD Karte für den Raspberry sein, am besten mit dem original Raspberry Pi OS Desktop), an welches Du die SSD anschließt, dann gparted startest (auf einem Desktop System mit grafischer Oberfläche und sehr komfortabel) und dort die root Partition (das ist die zweite) auf 16 GByte verkleinerst. Den Rest der Platte kannst Du z.B. verwenden, um eine oder auch mehrere andere Partitionen zu erstellen. Diese Partitionen kannst Du dann z.B. einbinden, um dort eine Datensicherung anzulegen (nur als Zwischenspeicher natürlich) oder auch andere Daten zu speichern. Du kannst sogar den Konfigurationszweig von openHAB auf diese Weise auslagern und nur die Partition mit den Daten von openHAB sichern. Bei einem Ausfall kannst Du dann das System bequem wieder herstellen, indem Du es einfach neu aufsetzt und anschließend die Daten von der anderen Partition wieder einbindest.
Für dein konkretes Problem hilft Dir das natürlich nicht, aber wenn Du vom Imager weg kommst, spielt das dann ja keine Rolle mehr

openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet