Unser Angebot richtet sich ausschließlich an Unternehmen, Gewerbetreibende, Behörden und Freiberufler.

Offizieller Lenovo PC Partner Platinum 2024
Beratung unter Tel.: 03841-389 00 30 (kostenlos aus dem dt. Festnetz)

Edge Computing mit den Lenovo ThinkEdge Geräten

Edge Computing mit den Lenovo ThinkEdge Geräten

Was hat Pizza mit Datenübertragung und künstlicher Intelligenz zu tun?
Auf den ersten Blick nicht viel. Wenn wir allerdings den Begriff Edge Computing dazu nehmen, sieht das schon anders aus. Denn auch bei unserem fiktiven Pizzahersteller bringt das das Arbeiten am Rand, an der Edge des Netzwerkes Fortschritt für sein Unternehmen.
In diesem Blogbeitrag erfahren Sie außerdem, warum Edge Computing, Dezentralisierung und künstliche Intelligenzen auch für den Fortschritt Ihres Unternehmens wichtig sind, warum Edge Computing nicht nur beim Pizza backen, sondern auch im Lager, im Krankenhaus und in der Stadt von Morgen zu finden ist und was Sie benötigen, um Edge Computing in Ihrem Unternehmen zu etablieren.

Was ist diese Edge in Edge Computing?

Der Begriff Edge Computing hat seinen Ursprung im Englischen und beschreibt die Datenverarbeitung am „Rand“ eines Netzwerkes, an der sogenannten Edge. Hier werden große Mengen von Daten gesammelt, die über das Netzwerk verarbeitet und weitergeleitet werden müssen. Edge Computing hat die Aufgabe die Verarbeitung dieser enormen Datenmengen, z. B. von Sensoren, Kameras und Benutzereingaben, schon vor Ort (dezentral) zu verarbeiten, zu vereinfachen und nur die nötigsten Daten an das Netzwerk weiterzugeben. Damit bricht Edge Computing die gängigen Netzwerkstrukturen auf und ermöglicht einen effizienteren, dezentralisierten Aufbau.

Edge-Computing-Lenovo_Infografik_V1-ohne-Text

Warum ist Dezentralisierung wichtig?

Mit jedem Jahr wachsen die Datenmengen, die Endpoints produzieren, enorm an. Gleichzeitig wird Echtzeitfähigkeit und Datensicherheit immer wichtiger. Die Dezentralisierung ist ein wichtiger Bestandteil, die Netzwerkauslastung zu regulieren, Verarbeitungszeiten zu verkürzen und Latenzen zu minimieren.

Stellen wir uns eine Pizzafabrik vor, die täglich tausende Pizzen produziert. Auf jede Pizza sollen acht Oliven. Damit der Hersteller den Preis genau kalkulieren kann, muss er überprüfen, ob immer die exakte Anzahl Oliven auf der Pizza landet. Da der Hersteller weder Zeit noch Personal hat diese Arbeit mit der Hand durchzuführen, installiert er eine Kamera. Die Kamera erzeugt riesige, detailgenaue Bilddaten, auf denen ein Algorithmus oder eine KI die Oliven erkennen kann. Sollen diese Daten erst im Netzwerkzentrum analysiert werden, benötigt der Hersteller eine enorm große Bandbreite für die Übertragung. Und da das Rechenzentrum sehr wahrscheinlich nicht direkt neben der Produktionslinie steht, benötigt er auch noch lange Leitungen. Das wird sehr schnell sehr teuer. Zumal er ja nicht nur Pizzen mit Oliven produziert.


Die Lösung für unseren Pizzahersteller ist einfach: Die Bilddaten müssen noch vor Ort an der Produktionsstraße verarbeitet werden. Und genau das ist Dezentralisierung und Arbeiten an der Edge. Mit einem geeigneten System lässt der Pizzahersteller die Kameradaten auswerten und gleich auf Produktionsfehler reagieren. Der Edge Computer vereinfacht also nicht nur die Daten, sondern reagiert auch auf Ergebnisse und kann die Endpoints entsprechend ansteuern. Die Datenmenge, die von der Kamera produziert wird, bleibt gleich. Die Daten müssen aber über deutlich kürzere Wege übermittelt werden. Der Edge Computer meldet nach der Verarbeitung nur noch den Zustand der Produktion an das Netzwerk. Die Datenmenge, die hier übertragen wird, ist also deutlich geringer geworden.
Aufgrund günstiger Cloud-Anbieter und wachsender Nachfrage wird auch das Thema Datensicherheit immer bedeutender. Im Beispiel des Pizza Herstellers werden die Daten in einer Cloud abgelegt. Dank des Einsatzes von Edge Computing befindet sich in dieser Cloud nur die Information „Pizza hat die genaue Anzahl Oliven“. Externe erlangen damit keine Informationen über die Anzahl von Oliven oder können die Bilddaten direkt abgreifen.

Zusammengefasst ermöglicht die Dezentralisierung eine Verringerung der Netzwerkauslastung, die Verkürzung von Latenzen im Prozess, das Arbeiten mit Echtzeit-Systemen und eine höhere Datensicherheit. Durch Edge Computing wird das ermöglicht.

Wo wird Edge Computing angewendet?

Im vorausgegangenen Beispiel des Pizzaherstellers war die Anwendung von Edge Computing eine offensichtliche Lösung. Aber nicht nur in der Produktion oder Fertigung finden wir den „Rand“ eines Netzwerkes. Edge Computing findet sich in zahlreichen Branchen von Logistik und Robotik, über die Hotelbranche, bis hin zum Transport- und Sicherheitswesen und vielen weiteren Bereichen.

Autonomes Fahren wird immer realer. Hier werden von tausenden Sensoren in weniger als einer Millisekunde enorme Mengen an Informationen erzeugt, die schnell und präzise verarbeitet werden müssen. Konkret stellen wir uns einen autonomen Gabelstapler in einem Hochregallager vor. Dieser soll natürlich bremsen, wenn ein Wartungsarbeiter über die Fahrbahn läuft. Um den Bremsvorgang einzuleiten, darf zwischen der Registrierung des Wartungsarbeiters und der Verarbeitung der Information nicht viel Zeit vergehen. Wenn erst alle Daten des autonomen Gabelstaplers über eine Funkverbindung zum zentralen Netzwerk transportiert werden müssen, der Wartungsmitarbeiter dort erkannt und erst dann der Befehl zur Bremsung wieder zum Gabelstapler zurückgeschickt wird, dann ist der Unfall bereits geschehen. Die Datenmengen müssen vor Ort zusammengefasst und vorverarbeitet werden. Das geschieht hier, genau wie bei dem Pizzahersteller, am Rand, an der Edge des Netzwerks.


Edge Computing kommt also überall dort zum Einsatz, wo große Datenmengen erzeugt werden, eine Vielzahl von Gerätschaften verwendet werden oder IoT Systeme (Internet of Things) eingesetzt werden. Egal ob in der Produktionshalle, im Smartphone, in der Mikrowelle oder im Straßenverkehr.

Titel_Blog_Edge-Computing-mit-Lenovo-ThinkSystem-SE350-Edge-Server_Produktion

Was ist das IoT?

Das Internet of Things (IoT) oder Internet der Dinge (IdD) bezeichnet eine Sammlung von Technologien, die physische und virtuelle Objekte miteinander vernetzen und Informationen teilen. Als IoT werden also weniger die Sensoren und Datenerzeuger selbst bezeichnet, sondern eher die Steuergeräte und Kommunikationssysteme. Ein Beispiel hierfür ist der Lenovo ThinkEdge SE30. Mit dem breiten Angebot von Ports, wie den seriellen Schnittstellen und Antennen für WWAN Verbindungen, kann der SE30 eine Menge unterschiedliche Daten aufnehmen, um Sensoren und Rechenzentren zu vernetzen. Die robuste Bauart sowie die passive Kühlung ermöglichen ein breites Einsatzgebiet für den Lenovo ThinkEdge SE30.

Warum ist künstliche Intelligenz wichtig für Edge Computing?

Sensoren werden immer intelligenter und können immer mehr Daten bereitstellen, aus denen viele Informationen gewonnen werden können. Um diese Informationen aber auch entsprechend verarbeiten und interpretieren zu können, werden künstliche Intelligenzen (KI) benötigt. Eine KI verarbeitet die Daten, versteht die Prozesse und reagiert auf Veränderungen. So können gefährliche Situationen erkannt und entschärft werden, ohne dass das Netzwerk es überhaupt mitbekommt.

Noch ein Beispiel. Der Drucksensor einer hydraulischen Pumpe in einem Chemiewerk registriert einen steigenden Druck. Das kann zu großen Schäden oder sogar einer Explosion führen, daher muss schnell auf die veränderte Situation reagiert werden. Ein KI-fähiger Edge Computer kann in Zusammenarbeit mit einem intelligenten Sensor selbständig einen gefährlichen Druckanstieg im System identifizieren und eingreifen, lange bevor es zu einem Problem wird. Ermöglicht wird das durch die verkürzte Latenz dank der Arbeit an der Edge. Damit das reibungslos funktioniert, müssen die Edge-Systeme für KI ausgelegt sein.

Systemanforderungen an KI-fähige Edge Computer

Damit eine KI auf einem Edge Computer effektiv arbeiten kann, bedarf es gewisser Systemanforderungen ähnlich wie bei einer Software.

CPU: Die CPU (Central Processing Unit) ist die zentrale Recheneinheit jedes Edge Computers. Sie managt Eingaben und Ausgaben in das System (E/A oder I/O), verteilt Code an die GPU und betreibt VM- oder Container Subsysteme. Wer intensiv mit KI-Anwendungen arbeitet, sollte auf einen skalierbaren Intel Xeon Platin oder Gold Prozessor oder eine AMD Epyc-CPU zurückgreifen. CPUs der aktuellen Generation verfügen über zusätzliche Funktionen, die Machine Learning- und Deep Learning-Inferenzoperationen erheblich beschleunigen, wodurch sie für KI-Workloads, deren Modelle auf GPUs trainiert wurden, geeignet sind.

GPU: Künstliche Intelligenzen, wie sie auch in der Bilderkennung eingesetzt werden, müssen vor dem Einsatz trainiert werden. Das heißt die KI lernt, worauf Sie achten muss, was Grundzustand und was Extremfälle sind. Das Training für Machine Learning und Deep Learning Modelle übernimmt die grafische Prozessoreinheit. Ein typisches Modell für das Training ist beispielsweise die NVIDIA A100. Der entscheidende Unterschied zu den gängigen Performance Grafikkarten ist die Größe und Bauart des VRAM. Bei diesem handelt es sich bei der NVIDIA A100 um High-Bandwidth Memory (HBM). Dieser besitzt eine höhere Bandbreite und arbeitet damit noch schneller. Die Größe des VRAM liegt bei der NVIDIA A100 bei wahlweise 40GB oder 80GB und trägt die meisten KI-Operationen.

Arbeitsspeicher: Da die hauptsächliche Rechenlast im VRAM der GPU anfällt, stellt der Systemspeicher normalerweise keinen Engpass dar. 128GB bis 512GB DRAM reichen den meisten KI-Anwendungen aus.

Festplattenspeicher: Da KI während des Trainings und im Betrieb auf einen großen Datensatz zugreifen müssen, bildet das Verschieben von Daten zwischen Speicher und Computer einen Leistungsengpass. Die Verwendung von lokalem NVMe und SATA-SSD Laufwerken ist daher empfehlenswert.

Netzwerk: Um die Leistung eines KI-Systems effizient zu skalieren, werden diese oft in Clustern zusammengefasst. Um einen entsprechenden Datentransfer zwischen den Clustern zu gewährleisten, sollten KI-fähige Computer mindestens mit einer 10Gbit/s schnellen Ethernet-Schnittstelle ausgestattet sein.

Warum brauche ich eine GPU in meinem Edge Computer?

Algorithmen für Machine Learning und Deep Learning erfordern eine große Anzahl von Matrix-Multiplikations- und Akkumulations-Gleitkommaoperationen. Grafikkarten besitzen besondere Kerne, die sich in Funktion, Architektur und Leistung von CPU-Kernen unterscheiden. Deswegen werden dedizierte Grafikkarten verbaut, um die Rechenleistung von KI-fähigen Edge Computern zu steigern.
In den Grafikkarten von NVIDIA sind üblicherweise drei verschiedene Kernarchitekturen verbaut. CUDA Kerne, Tensor-Kerne und Raytracing (RT)-Kerne. Die unterschiedlichen Architekturen begründen sich in den unterschiedlichen Aufgaben der Kerne.
CUDA steht für „Compute Unified Device Architecture“ und ist eine von NVIDIA entwickelte Programmierschnittstelle. CUDA beschreibt also nicht den Kern selbst, sondern dessen Arbeitsweise. CUDA Kerne eignen sich vor allem für hochgradig parallelisierbare Programmabläufe. Sie können Matrixberechnungen parallel durchführen und eignen sich damit für Machine Learning und Deep Learning.

Tensor-Kerne sind die wohl wichtigsten Kerne für alle KI-Anwendungen. Sie sind auf Matrix-Multiplikationen ausgelegt. Diese sind der wichtigste Bestandteil für Inferencing und Deep Learning und ermöglichen ein schnelles Anlernen der KI.

RT-Kerne werden vor allem für realistische Darstellungen von Licht und Schatten sowie Reflexionen benötigt. RT-Kerne verfolgen (eng.: trace) Lichtstrahlen (eng.: ray) und berechnen, an welcher Stelle in einem Polygon das Licht auftrifft. Für KI-Anwendungen werden diese Kerne aber weniger gebraucht.

Die GPU besteht also im Vergleich zu einer CPU aus einer größeren Anzahl parallel nutzbarer Kerne, die eine Vielzahl bestimmter Berechnungen zeitgleich ausführen können. Besonders wichtig für KI-Anwendungen sind dabei die Tensor-Kerne. Aber auch die CUDA Kerne sind ausschlaggebend für die Leistung der Grafikeinheit. An dieser Stelle möchten wir Ihnen noch einen kurzen Überblick über dieaktuellen NVIDIA Grafikkarten geben :

 GrafikkarteVRAMCUDA KerneTensor Kerne
Good NVIDIA T4 16GB GDDR6 2560 320
Better NVIDIA RTX A5000 24GB GDDR6 8192 256
Best NVIDIA A100 40GB HBM 6912 432

Edge Computing in Ihrem Unternehmen mit den ThinkEdge Systemen von Lenovo

Wer jetzt sein eigenes Netzwerk dezentralisieren und Edge Computing einsetzen möchte, steht vor der Frage, welche Endgeräte dafür geeignet sind. Lenovo schafft hier Klarheit. Mit der Lenovo ThinkEdge Brand bringt Lenovo Geräte wie den oben kurz vorgestellten SE30 oder den großen Bruder ThinkEdge SE50 auf dem Markt. Diese Edge Computer sind so konfiguriert, dass sie sofort an der Edge eingesetzt werden können.

ThinkEdge SE30ThinkEdge SE50ThinkSystem SE350 Edge Server
Lenovo-ThinkEdge-SE30-Tabellenbild Lenovo-ThinkEdge-SE50-Tabellenbild Lenovo-ThinkEdge-SE350-Tabellenbild
bis zu Intel Core i5 der 11. Generation bis zu Intel Core i7 der 11. Generation bis zu Intel Xeon Prozessor mit bis zu 16 Kernen
kein Aufrüstbarer Arbeitsspeicher, max. 16GB zwei SODIMM Speicherbänke, max. 32GB vier TruDDR4 DIMM Speicherbänke, max. 256GB
keine dedizierte Speicherkarte keine dedizierte Speicherkarte ein PCIe 3.0 x16 Steckplatz für z.B. NVIDIA T4
bis zu 1TB M.2 2230 Opal Speicher bis zu 1TB M.2 2280 Opal Speicher + 1TB 2.5 Zoll HDD Speicher bis zu 16TB M.2 22110 NVMe oder 8TB M.2 22110 SATA Speicher + 2x M.2 2280 Boot Laufwerke


Das Flaggschiff der ThinkEdge Lösungen ist aber der Lenovo ThinkSystem SE350 Edge Server. Dieser Server ist speziell für Edge Computing entwickelt und bietet eine robuste und kompakte Edge Lösung. Dank intelligenter Konnektivität, Sicherheit und Verwaltbarkeit schafft der ThinkSystem SE350 Edge Server auch in anspruchsvollen Umgebungen die Möglichkeit zur Dezentralisierung des Systems. Neben der geringen Bauhöhe (1 HE) stellt Lenovo verschiedenstes Zubehör bereit, um den Server auch an der Wand oder als Regal auf dem Tisch zu befestigen. Ausgestattet ist der Edge Server mit einer Intel Xeon CPU mit bis zu 16 Kernen. Über vier Sockel können bis zu 256 GB RAM Arbeitsspeicher verbaut werden. Damit ist genug Rechenleistung für Edge Computing vorhanden. Des Weiteren kann über die PCIe 3.0 x16 Schnittstelle eine dedizierte Grafikkarte, wie die NVIDIA T4 für KI-Inferenz eingebaut werden. Die internen Speicheroptionen mit bis zu 8x M.2 22110 NVME Datenspeichern und 2x M.2 2280 SATA Boot Laufwerken schaffen kurze Datenwege und genügend Platz, um große Datenbanken für das KI-Training bereitzustellen. Mit den umfassenden Netzwerkschnittstellen, wie SFP+, LTE & WLAN, sowie mit bis zu 1 GbE schnellen LAN-Ports, kommuniziert der ThinkSystem SE350 Edge Server schnell und sicher mit dem Netzwerk. Mehr Informationen zum Edge Server finden Sie auf der Lenovo ThinkSystem SE350 Edge Server Produktseite.

Edge Computing auch für Sie

Mit dem Arbeiten am Rand des Netzwerkes, dem Edge Computing können Sie große Datenmengen direkt an Ort und Stelle verarbeiten und so die Systeme Ihres Unternehmens dezentralisieren. Das hat nicht nur den Vorteil, dass Ihre Daten sicherer sind und nicht mehr gebündelt auf einem Netzwerk liegen, auch die Netzwerkauslastung wird verringert und Probleme werden schneller behoben. Mit Hilfe einer KI können Lösungen sogar selbstständig durch den KI-fähigen Edge Computer an die entsprechenden End Points geleitet werden, sodass Produktionsabläufe flüssiger und sicherer werden. Das bietet neue Möglichkeiten für Wachstum und Fortschritt in einem Chemiewerk oder einem Logistikzentrum, ebenso wie in der Pizzaherstellung oder auch in Ihrem Unternehmen. 

Passende Artikel
Lenovo ThinkEdge SE30 11NA000DGE | wunderow IT GmbH | lap4worx.de Lenovo ThinkEdge SE30 11NA000DGE
977,00 € * 1.175,00 € *