Für jeden den es interessiert wozu das verwendet werden kann:
Im Usenet gibt es Provider. Provider halten die Daten die von Uploadern bereitgestellt werden. Eweka ist ein zuverlässiger Provider mit hoher Retention. Die Retention sagt aus wie lange zurück, Daten gespeichert werden. Das Usenet ist dezentral aufgebaut, damit sind die gleichen Daten bei mehreren Providern. Falls Urheberrechtlich geschützte Daten verbreitet werden kann es schon vor kommen, dass der Provider dazu gezwungen wird die Daten zu löschen. Andere Provider als Backup zu haben, vor Allem welche die verschiedenen Behörden unterliegen, ist hilfreich. Prio 1 ein EU Provider, dann US und ggf ein asiatischer (letzteres langsam wegen Latenz).
Da Usenet ein eigenes Protokoll ist braucht man aber auch eine Datei bzw ein Indexer der auf die Dateien hinweißt und quasi sagt was heruntergeladen werden muss damit aus einem Puzzle ein Bild wird. Diese Indexer gibt es auch mit API worauf Software zur Automatisierung zugreifen kann. Wenn man sich also bisschen mühe gibt dann kann man folgendes aufsetzen:
Ombi für die Menschen im Haushalt damit sie Content anfragen können.
Ombi schickt es an Sonarr oder Radarr.
Sonarr oder Radarr meldet sich bei der API des Indexers und holt sich die NZB Daten nach definierten Filtern wie zB 4K REMUX HDR DV.
Sonarr und Radarr schickt die NZB Daten weiter an einen NZB Downloader (zB. Nzbget).
NZBget lädt alle Parts runter und entpackt die Dateien an einem gewünschten Ort.
Verknüpft man das noch mit Kategorien wird automatisch der richtige Zielordner je nach Content gewählt.
Ist der Content nun vollautomatisiert runtergeladen erscheint am nächsten Tag der Content in meiner Kodi Bibliothek oder einem self host streaming Plattform wie Jellyfin.
Spinnt man das noch weiter kann man den Content (Meistens in x264 und x265) auFür jeden den es interessiert wozu das verwendet werden kann:
Im Usenet gibt es Provider. Provider halten die Daten die von Uploadern bereitgestellt werden. Eweka ist ein zuverlässiger Provider mit hoher Retention. Die Retention sagt aus wie lange zurück, Daten gespeichert werden. Das Usenet ist dezentral aufgebaut, damit sind die gleichen Daten bei mehreren Providern. Falls Urheberrechtlich geschützte Daten verbreitet werden kann es schon vor kommen, dass der Provider dazu gezwungen wird die Daten zu löschen. Andere Provider als Backup zu haben, vor Allem welche die verschiedenen Behörden unterliegen, ist hilfreich. Prio 1 ein EU Provider, dann US und ggf ein asiatischer (letzteres langsam wegen Latenz).
Da Usenet ein eigenes Protokoll ist braucht man aber auch eine Datei bzw ein Indexer der auf die Dateien hinweißt und quasi sagt was heruntergeladen werden muss damit aus einem Puzzle ein Bild wird. Diese Indexer gibt es auch mit API worauf Software zur Automatisierung zugreifen kann. Wenn man sich also bisschen mühe gibt dann kann man folgendes aufsetzen:
Ombi für die Menschen im Haushalt damit sie Content anfragen können.
Ombi schickt es an Sonarr oder Radarr.
Sonarr oder Radarr meldet sich bei der API des Indexers und holt sich die NZB Daten nach definierten Filtern wie zB 4K REMUX HDR DV.
Sonarr und Radarr schickt die NZB Daten weiter an einen NZB Downloader (zB. Nzbget).
NZBget lädt alle Parts runter und entpackt die Dateien an einem gewünschten Ort.
Verknüpft man das noch mit Kategorien wird automatisch der richtige Zielordner je nach Content gewählt.
Ist der Content nun vollautomatisiert runtergeladen erscheint am nächsten Tag der Content in meiner Kodi Bibliothek oder einem self host streaming Plattform für Jellyfin.
Spinnt man das noch weiter kann man den Content (Meistens in x264 und x265) automatisiert codieren lassen damit die verlustfreien REMUXE einen ordentlichen AV1 Encode bekommen für Daten Sparsamkeit.
Einmal aufgesetzt läuft alles automatisiert und man muss sich nicht mehr den Kopf über offline OCH machen.
Einen guten Indexer mit API zu bekommen ist aber schwieriger als früher und möchte ich hier nicht nennen. Sucht einfach invite-forum wer am meisten gesucht wird im deutsch sprachigen Raum 😁tomatisiert codieren lassen damit die verlustfreien REMUXE einen ordentlichen AV1 Encode bekommen für Daten Sparsamkeit.
Einmal aufgesetzt läuft alles automatisiert und man muss sich nicht mehr den Kopf über offline OCH machen.
Einen guten Indexer mit API zu bekommen ist aber schwieriger als früher und möchte ich hier nicht nennen. Sucht einfach invite-forum wer am meisten gesucht wird im deutsch sprachigen Raum 😁
Im Usenet gibt es Provider. Provider halten die Daten die von Uploadern bereitgestellt werden. Eweka ist ein zuverlässiger Provider mit hoher Retention. Die Retention sagt aus wie lange zurück, Daten gespeichert werden. Das Usenet ist dezentral aufgebaut, damit sind die gleichen Daten bei mehreren Providern. Falls Urheberrechtlich geschützte Daten verbreitet werden kann es schon vor kommen, dass der Provider dazu gezwungen wird die Daten zu löschen. Andere Provider als Backup zu haben, vor Allem welche die verschiedenen Behörden unterliegen, ist hilfreich. Prio 1 ein EU Provider, dann US und ggf ein asiatischer (letzteres langsam wegen Latenz).
Da Usenet ein eigenes Protokoll ist braucht man aber auch eine Datei bzw ein Indexer der auf die Dateien hinweißt und quasi sagt was heruntergeladen werden muss damit aus einem Puzzle ein Bild wird. Diese Indexer gibt es auch mit API worauf Software zur Automatisierung zugreifen kann. Wenn man sich also bisschen mühe gibt dann kann man folgendes aufsetzen:
Ombi für die Menschen im Haushalt damit sie Content anfragen können.
Ombi schickt es an Sonarr oder Radarr.
Sonarr oder Radarr meldet sich bei der API des Indexers und holt sich die NZB Daten nach definierten Filtern wie zB 4K REMUX HDR DV.
Sonarr und Radarr schickt die NZB Daten weiter an einen NZB Downloader (zB. Nzbget).
NZBget lädt alle Parts runter und entpackt die Dateien an einem gewünschten Ort.
Verknüpft man das noch mit Kategorien wird automatisch der richtige Zielordner je nach Content gewählt.
Ist der Content nun vollautomatisiert runtergeladen erscheint am nächsten Tag der Content in meiner Kodi Bibliothek oder einem self host streaming Plattform wie Jellyfin.
Spinnt man das noch weiter kann man den Content (Meistens in x264 und x265) auFür jeden den es interessiert wozu das verwendet werden kann:
Im Usenet gibt es Provider. Provider halten die Daten die von Uploadern bereitgestellt werden. Eweka ist ein zuverlässiger Provider mit hoher Retention. Die Retention sagt aus wie lange zurück, Daten gespeichert werden. Das Usenet ist dezentral aufgebaut, damit sind die gleichen Daten bei mehreren Providern. Falls Urheberrechtlich geschützte Daten verbreitet werden kann es schon vor kommen, dass der Provider dazu gezwungen wird die Daten zu löschen. Andere Provider als Backup zu haben, vor Allem welche die verschiedenen Behörden unterliegen, ist hilfreich. Prio 1 ein EU Provider, dann US und ggf ein asiatischer (letzteres langsam wegen Latenz).
Da Usenet ein eigenes Protokoll ist braucht man aber auch eine Datei bzw ein Indexer der auf die Dateien hinweißt und quasi sagt was heruntergeladen werden muss damit aus einem Puzzle ein Bild wird. Diese Indexer gibt es auch mit API worauf Software zur Automatisierung zugreifen kann. Wenn man sich also bisschen mühe gibt dann kann man folgendes aufsetzen:
Ombi für die Menschen im Haushalt damit sie Content anfragen können.
Ombi schickt es an Sonarr oder Radarr.
Sonarr oder Radarr meldet sich bei der API des Indexers und holt sich die NZB Daten nach definierten Filtern wie zB 4K REMUX HDR DV.
Sonarr und Radarr schickt die NZB Daten weiter an einen NZB Downloader (zB. Nzbget).
NZBget lädt alle Parts runter und entpackt die Dateien an einem gewünschten Ort.
Verknüpft man das noch mit Kategorien wird automatisch der richtige Zielordner je nach Content gewählt.
Ist der Content nun vollautomatisiert runtergeladen erscheint am nächsten Tag der Content in meiner Kodi Bibliothek oder einem self host streaming Plattform für Jellyfin.
Spinnt man das noch weiter kann man den Content (Meistens in x264 und x265) automatisiert codieren lassen damit die verlustfreien REMUXE einen ordentlichen AV1 Encode bekommen für Daten Sparsamkeit.
Einmal aufgesetzt läuft alles automatisiert und man muss sich nicht mehr den Kopf über offline OCH machen.
Einen guten Indexer mit API zu bekommen ist aber schwieriger als früher und möchte ich hier nicht nennen. Sucht einfach invite-forum wer am meisten gesucht wird im deutsch sprachigen Raum 😁tomatisiert codieren lassen damit die verlustfreien REMUXE einen ordentlichen AV1 Encode bekommen für Daten Sparsamkeit.
Einmal aufgesetzt läuft alles automatisiert und man muss sich nicht mehr den Kopf über offline OCH machen.
Einen guten Indexer mit API zu bekommen ist aber schwieriger als früher und möchte ich hier nicht nennen. Sucht einfach invite-forum wer am meisten gesucht wird im deutsch sprachigen Raum 😁
Neues Angebot: 44,85€ für 15 Monate (2,99€ pro Monat)