Leider ist dieses Angebot vor 2 Minuten abgelaufen.
Über diesen Deal
Dieser Deal ist leider abgelaufen. Hier sind ein paar andere Optionen für Dich:
Update 1
Hier ist er wieder!! Nach schier unendlicher Wartezeit, ist der bei uns Nerds heiß beegehrte Google Coral USB Beschleuniger wieder erhältlich. Das Warten hat also ein Ende!
(Vgp: 119.99€ bei Conrad, bei ungewisser Lieferzeit, sonst surreale Preise bei eBay ab 250€ aufwärts)
Wait... Was ist das überhaupt? Brauche ich das??
Berechtigte Frage!
Haupteinsatzzweck ist die dynamische Bilderkennung, beispielsweise bei einer Überwachungskamera. Ich nutze hierfür für Home Assistant die überaus tolle Software "Frigate", die so gut wie keine andere eine auf der Google Api basierende Gegenstandserkennung integriert hat (Personen, Katzen, Hunde, etc.). Wird diese Erkennung bzw. dieser Algorythmus von der Server CPU ausgeführt, geht dieser schon ordentlich in die Knie. An einem Raspi ist da schon gar nicht mehr zu denken. Auch mein Dell Server kommt ordentlich ins Schwitzen. Mit Hilfe dieser TPU (Tensor Processing Unit) kann man dies dann trotzdem ausführen, da diese hierfür optimiert ist. So kann ich beispielsweise 4 Kameras betreiben ohne einen nennenswerten Ausschlag auf meiner CPU Leistungskurve zu erkennen. Dies spart extrem Leistung und jetzt vor allem auch Strom und damit Geld.
Für jeden Home Assistant Anwender mit Frigate ein absolutes must-have!
Ausführliche Beschreibung, Quelle Berrybase:
"Google Coral USB Accelerator für Raspberry Pi"
Der Google Coral USB Accelerator bringt Real-Time Inferenz für Ihren Pi 4 und viele andere Computer.
Künstliche Intelligenz / Machine Learning für alle: Google hat mit dem Coral USB Accelerator einen leistungsfähigen Spezialchip (TPU, Tensor Processing Unit) an ein USB 3 Interface angebunden - damit können Tensor Flow Lite Modelle schnell und energiesparend für Inferenz genutzt werden. Ein besonderer Vorteil dieser Lösung: Ihre Daten bleiben lokal. Das hilft bei der Latenz, und natürlich beim Datenschutz.
Google nutzt zunehmend künstliche Intelligenz (AI) und maschinelles Lernen (ML) um seine Dienstleistungen zu realisieren. Dazu entwickelte es für seine Rechenzentren spezialisierte Prozessoren namens TPU ("tensor processing unit"), die die Algorithmen mit dem TensorFlow Framework schneller und energiesparender ausführen können. Beispielsweise wird Google Maps durch von Street View aufgenommene Straßenschilder verbessert, die mit Hilfe eines auf TensorFlow basierenden neuronalen Netzes analysiert werden. Der Clou: TensorFlow kann einfach in Python programmiert werden.
Google bringt mit der Edge TPU, die das TensorFlow Lite Framework unterstützt, einen USB 3 Stick auf den Markt. Die Edge TPU kann bis zu 4 Billionen Rechenoperationen pro Sekunde mit nur 2 W Verbrauch durchführen.
Perfekt in Kombination mit dem Pi 4!
Mit Hilfe der Google Coral Edge TPU kann Inferenz beispielsweise mit dem MobileNet v2 Model bis zu 20 x schneller als auf "dem nackten" Pi 4 ausgeführt werden. Es können so real-time Erkennungen in Videostreams mit über 50 fps durchgeführt werden, die mit dem Pi 4 ohne Beschleuniger nicht möglich wären.
Dank Python und vielen Beispielen online rund um TensorFlow kann man in das Thema künstliche Intelligenz und Machine Learning mit dem Google Coral USB Accelerator einfach und mit Stil einsteigen.
(Vgp: 119.99€ bei Conrad, bei ungewisser Lieferzeit, sonst surreale Preise bei eBay ab 250€ aufwärts)
Wait... Was ist das überhaupt? Brauche ich das??
Berechtigte Frage!
Haupteinsatzzweck ist die dynamische Bilderkennung, beispielsweise bei einer Überwachungskamera. Ich nutze hierfür für Home Assistant die überaus tolle Software "Frigate", die so gut wie keine andere eine auf der Google Api basierende Gegenstandserkennung integriert hat (Personen, Katzen, Hunde, etc.). Wird diese Erkennung bzw. dieser Algorythmus von der Server CPU ausgeführt, geht dieser schon ordentlich in die Knie. An einem Raspi ist da schon gar nicht mehr zu denken. Auch mein Dell Server kommt ordentlich ins Schwitzen. Mit Hilfe dieser TPU (Tensor Processing Unit) kann man dies dann trotzdem ausführen, da diese hierfür optimiert ist. So kann ich beispielsweise 4 Kameras betreiben ohne einen nennenswerten Ausschlag auf meiner CPU Leistungskurve zu erkennen. Dies spart extrem Leistung und jetzt vor allem auch Strom und damit Geld.
Für jeden Home Assistant Anwender mit Frigate ein absolutes must-have!
Ausführliche Beschreibung, Quelle Berrybase:
"Google Coral USB Accelerator für Raspberry Pi"
Der Google Coral USB Accelerator bringt Real-Time Inferenz für Ihren Pi 4 und viele andere Computer.
Künstliche Intelligenz / Machine Learning für alle: Google hat mit dem Coral USB Accelerator einen leistungsfähigen Spezialchip (TPU, Tensor Processing Unit) an ein USB 3 Interface angebunden - damit können Tensor Flow Lite Modelle schnell und energiesparend für Inferenz genutzt werden. Ein besonderer Vorteil dieser Lösung: Ihre Daten bleiben lokal. Das hilft bei der Latenz, und natürlich beim Datenschutz.
Google nutzt zunehmend künstliche Intelligenz (AI) und maschinelles Lernen (ML) um seine Dienstleistungen zu realisieren. Dazu entwickelte es für seine Rechenzentren spezialisierte Prozessoren namens TPU ("tensor processing unit"), die die Algorithmen mit dem TensorFlow Framework schneller und energiesparender ausführen können. Beispielsweise wird Google Maps durch von Street View aufgenommene Straßenschilder verbessert, die mit Hilfe eines auf TensorFlow basierenden neuronalen Netzes analysiert werden. Der Clou: TensorFlow kann einfach in Python programmiert werden.
Google bringt mit der Edge TPU, die das TensorFlow Lite Framework unterstützt, einen USB 3 Stick auf den Markt. Die Edge TPU kann bis zu 4 Billionen Rechenoperationen pro Sekunde mit nur 2 W Verbrauch durchführen.
Perfekt in Kombination mit dem Pi 4!
Mit Hilfe der Google Coral Edge TPU kann Inferenz beispielsweise mit dem MobileNet v2 Model bis zu 20 x schneller als auf "dem nackten" Pi 4 ausgeführt werden. Es können so real-time Erkennungen in Videostreams mit über 50 fps durchgeführt werden, die mit dem Pi 4 ohne Beschleuniger nicht möglich wären.
Dank Python und vielen Beispielen online rund um TensorFlow kann man in das Thema künstliche Intelligenz und Machine Learning mit dem Google Coral USB Accelerator einfach und mit Stil einsteigen.

Zusätzliche Info
Auch interessant
Verwandte Gruppen
Verwandte Händler
342 Kommentare
sortiert nachDie TPU läuft übrigens bei dir Local also ohne jegliche Verbindung nach aussen, was die Sache ja so interessant macht.
Die TPU ist nur die Platform welche die Software beschleunigt, ohne Software und Modelle macht die garnichts. (bearbeitet)
Ergänzung: Auch die NAS von QNAP unterstützen diese TPU - damit werden einige Suchfunktionen und Bildanalysen deutlich beschleunigt. Mein TS873A hat sich darüber gefreut. ;o) (bearbeitet)
Die machen zwar einen auf Großhändler, aber bei einer Bestellung als Gast hat keiner nach dem Gewerbeschein o.ä. gefragt...
Sehr coole Kombi, läuft bei mir auch. Dank der USB TPU (& der echt guten "Frigate" Software) schafft die schwachbrüstige j4105 CPU 24/7 recording mit Personenerkennung von 4x 4k Kameras.
Hätte fast bestellt, aber nach etwas Überlegen ist die Nützlichkeit von dem Teil doch sehr beschränkt:
1. Effizienz: Speedup gegenüber RPi4 nur 4-10x, dafür 470mA Idle macht alle Argumente bzgl. Effizienz kaputt solange die TPU nicht 24/7 rechnet:
hackster.io/new…719
2. Anwendung: Den einzigen Use Case den ich sehe ist wenn man in Echtzeit auf Live Video reagieren will, z.B. für object detection notifications bei Überwachungskameras. Allerdings lässt sich Bewegung ja gut ohne ML mit OpenCV erkennen und wenn ein Ereignis ein Clip von ein paar Sekunden ist, dann dauert es ohne TPU eben 5s länger bis man ein Ergebnis hat.
Zudem sind die verfügbaren Modelle sehr beschränkt. Die Datensätze haben nur 80 verschiedene Objekte:
github.com/goo…txt
Pose estimation erschien mir bei den Beispielen noch am sinnvollsten da das in sich geschlossen ist.
3. Eigene Modelle: kann man nur bedingt trainieren: "Even a Google Coral cannot train a network because the TPU on this board works only with special pre-compiled TensorFlow networks. Only the last layer in a network can be changed slightly."
qengineering.eu/dee…tml
stackoverflow.com/que…ing
Ein paar klärende Dinge zur korrekten Einschätzung der Edge TPU:
Die Effizienz richtet sich natürlich nach dem genutzten und vorhandenen Setup. Ein Rpi4 kann mit frigate eine Erkennung von maximal einem, mit Einschränkungen vielleicht zwei Streams von Videoquellen durchführen. Das ist vielen Nutzern zu wenig und zwingt somit zum Upgrade des Gesamtsystem. Mit der TPU bekommt man schon 4 Streams hin. Bei meinem Setup sind es 10 Kameras zu zwei getrennten Objekten.
Bei größeren Hausautomatisierungs-Systemen senkt es die CPU Zeit erheblich. Dadurch kommt es bei parallel laufenden Prozessen anderer vorhandener integrierter Umgebungen (Docker etc.) nicht zu Verarbeitungsstörungen u.U. auch systemkritischer Bereiche wie Heizungs- und Klimasteuerungen. Nicht nur das Ausbremsen von Spitzenleistungen ist ein Thema sondern ein möglichst gleichmäßiger Lastverlauf. Netter Nebeneffekt ist die tatsächliche Einsparung. In meinem konkreten Fall waren dies ca. 15W im 24/7 Betrieb, was bei dieser Nutzung fast immer gegeben ist.
Zu Punkt 2: Richtig, die TPU wird im überwiegender Teil dazu eingesetzt, mit Frigate eine Objekt Erkennung durchzuführen. Es stimmt auch, dass softwarebasiert auch im Ergebnis desselbe grundsätzlich möglich ist. Es ist aber wie der Name schon sagt ein "Accelerator". Es sind eben jene 5 Sekunden, die sich mit mehreren gleichartig und gleichzeitig abzuarbeitenden Prozessen (bspw. zwei "Erkennungen") zusätzlich summieren, nicht nur linear, so dass damit in einer Hausautomatisierungsgegend kein sinnvoller Einsatz mehr ergibt.
Beispiel: Du läufst deine Einfahrt hoch, erst 5 Sekunden später geht das Licht an, bist aber schon in den nächsten Bereich gestolpert und der Rasensprenger gießt noch auf dich ein, weil erst 5 Sekunden später wiederum eine Erkennung statt fand und das Magnetventil der Rasenbewässerung abstellt. Blöd. Die Liste kann man beliebig lange fortschreiben.
Beim dritten Punkt gebe ich Dir Recht. Trotzdem ist es hervorragend geeignet in die Materie einzusteigen und ein recht günstiger obendrein. (bearbeitet)
1. Kann das Teil auch bestimmte Gesichter erkennen?
2. Wie genau ist die Erkennung (x von 1 000 000 Gesichter)?
3. Könnte man damit im Bild Kennzeichen erkennen, OCR lesen und und speichern?
4. Neuere PTZ- Cams aus China haben bereit Menschenerkennung eingebaut. Alarm nur bei Menschen aber nicht bei Katzen. Was kann das Teil besser.
5. Erkennt es Menschen auch z.B. in Fasching- / Karnevals- Verkleidung?
6. Wie programmiert man damit Erkennung von z.B. "weißen Pudel" (ggf. durch Musterbildvorlage)?
7. Kann es auch bestimmte Ethnien autark erkennen?
8. Werden für die Erkennung die Cam- Bilder zu Google gesendet (und dort eventuell verwertet / weitergegeben), oder erkennt TPU es autark?
9. Wo wird diese Technik auch militärisch genutzt (z.B. Zielerkennung für Raketen)? (War vermutlich der Anstoß für diese Technik...)
PS:
Auf verschiedenen Technik- und Sicherheit- Messen in den letzten Jahren, konnte man aus China Gesichtserkennungssoftware sehen und teilweise auch testen. Dazu bestimmte die Software auch das Geschlecht, Alter, Ethnie, und psychische Verfassung (Stimmung). (letzteres unter Sicherheitsaspekten, um automatisch potentielle Täter vorab zu erkennen)
Die Software arbeitete aber einigermaßen zuverlässig nur bei asiatischen Gesichter.
Europäer wurden nicht so gut erkannt, und z.B. oft 20 Jahre jünger oder älter geschätzt.
Das Standpersonal erzählte jedes Jahr, die Software muss noch auf europäische Gesichter angepasst werden.
Könnte man mit diesen TPU- Teil, ohne viel Aufwand ähnliche Funktionalität auch für europäische Gesichter realisieren? (bearbeitet)
Das ist nur eine Unterstützung für eine Software, die davon Gebrauch macht, wie z.B. Frigate. Also letztendlich ja nur "mehr Power" für etwas, das auch so vorhanden ist.
"Holt Euch die KI ins Haus", haben sie gesagt...
Both the Jetson Nano and the Google Coral USB Accelerator are amazing gadgets which make it possible to deploy state of the art Machine Learning models at an affordable price. Depending on your use-case, one of them may be more suitable. If you need flexibility, the Jetson Nano is probably better for you. If you want to focus on one framework only and are willing to adapt your model to the Coral’s needs, then the Google Coral Edge TPU should be the right one for you. There may be one thing to keep in mind though: the Google Coral is pretty new on the market and whether it will be supported and further developed in the long term or if it will be part of the Google product graveyard, remains to be seen.
3dvisionlabs.com/201…on/
Aber zu Hause ne Spionageeinrichtung von der selbst James Bond träumt.
Mit dem Preisverfall und gleichzeitiger Qualitätssteigerung bei Kameras in Kombination mit so einer TPU gibts keinen Grund mehr, sowas nicht zu nutzen.
Vor allem weils lokal läuft. (bearbeitet)
Link: amzn.eu/d/8…Ady
Die besitzt ja schon eine Erkennungssoftware und folgt auch z. B. einen Fußgänger der in meinem Hof rumspaziert.
Welchen Vorteil hätte ich denn da bei diesem Coral dongle?
Ist die Software dann deutlich besser oder ist der Einsatzzweck, dass die Cam einfach nur Google Home Sachen kann??? Bin da kein Experte.
Danke schon mal für ne Antwort.
Nutze Frigate mit meiner HA Instanz (Proxmox VM auf einem Lenovo NUC) erst seit wenigen Tagen und bin mir noch nicht sicher wie genau ich diesen "Dongle" einbinde und richtig nutze, aber auch das bekomme ich noch heraus
Wie groß wäre da der Aufwand und viel programmieren muss man dafür können? (bearbeitet)
Google und Youtube sind deine Freunde.
- Home Assistent
- ioBroker
- raspberryPi 4
- Synology
- qnap
- Proxmox
Welche alternativen Oberflächen gibt es. Vielen Dank
P.S. : Bestellt, denn haben ist besser als brauchen … (bearbeitet)
dann hoffentlich nur auf deinem privat gelände bis zur grundstücksgrenze.
wäre ja noch schöner wenn eure dienste eure nachbarn mitschneiden lol
wäre wohl ein fall für den paintball markierer aus dem keller.
Antworten auf
Ich arbeite grad an einem RL-Drohen Projekt, ich frag mich, ob ich das ding an eine Drohne gebastelt bekomme ?!
Plane gerade die ganze Kamera Überwachung das das Teil wäre schon nett.
Der Prozessor ist heute angekommen und jetzt suche ich eifrig nach einer IP Kamera, die ich z.B. mit Frigate verwenden will. Nun bin ich auf den Hinweis von praktischerweise drei Streams pro Kamera gestoßen und finde kaum Kameras, die das können habt ihr (preisgünstige) Kameravorschläge? Eine hab ich hier: Hikvision DS-2CD2183G2-I
Danke
Brauchst eigtl. nur für Klassifizierung in Echtzeit.