Kategorien
Esra Arslan N365

Wie hängen SharePoint, OneDrive und Teams zusammen?

Office 365 bietet ein umfassendes Tool-Set, mit dem Mitarbeiter einer Organisation sämtliche Aufgaben individuell bearbeiten können. Die Erstellung kann sowohl allein als auch in Zusammenarbeit mit Kollegen und externen Stakeholdern erfolgen, welche gleichzeitig an gemeinsamen Dokumenten arbeiten können. Office 365 ist somit eine cloudbasierte Software-Lösung, welche auf vielen Ebenen verknüpft ist. Hier stellt sich immer wieder die Frage: Wo liegt eigentlich der Unterschied zwischen SharePoint, OneDrive und Teams?

SharePoint:

SharePoint unterstützt Organisationen beim Dokumentenmanagement und der Zusammenarbeit an Dateien. Es dient zum Austausch von Dokumenten mit größeren Gruppen in verschiedenen Organisationseinheiten und stellt eine zentrale Ablage bereit, um Unternehmensinformationen zu finden. Mit Hilfe von SharePoint können außerdem Workflow-Genehmigungsprozesse und die Veröffentlichung von Dokumenten geprüft und verwaltet werden.

OneDrive:

OneDrive ist, im Gegensatz zu SharePoint, ein persönlicher Dateienspeicher in der Cloud. Es ermöglicht die Dateiablage für einzelne Personen, die diese Dateien nicht mit ganzen Gruppen, Teams oder Unternehmensweit teilen möchten. Da die Dateiablage in der Cloud stattfindet – spart dies lokalen Speicherplatz.

Teams:

Teams ist in vielen Organisationen die Hauptkommunikations-Anwendung und bietet zahlreiche Funktionen wie Chat, Videokonferenz, und integrierte Dateibearbeitung. Wie der Name bereits verrät, kann man dort Teams gründen, um zum Beispiel an aktuellen Projekten zu arbeiten und sich insbesondere in Bezug auf das jeweilige Team gemeinsam auszutauschen.

Kategorien
Martin Drückes NConnect

Die IT Infrastruktur der Zukunft

Die Entwicklung von IT-Infrastrukturen war schon immer rasant und erforderte von IT-Fachkräften enorme Flexibilität. Doch kaum eine Entwicklung hat bisher so zentrale Änderungen mit sich gebracht wie die Einführung der Cloud. Ob es SaaS-Lösungen wie Microsoft 365 oder die Cloudplattformen der großen Cloud-Anbieter sind, die Einführung hat nicht nur Auswirkungen auf die Infrastruktur an sich, sondern zieht auch eine Anpassung zentraler Prozesse mit sich – sowohl innerhalb der IT- als auch in den Fachabteilungen. Aber die Erfahrung hat auch gezeigt, dass eine reine Cloudinfrastruktur nicht in allen Kundensituationen die optimale Lösung ist und zumindest auf absehbare Zeit hybride Lösungen der „way to go“ sind. Im Folgenden aber werden die Rahmenbedingungen beschrieben, welche maßgeblich für die IT-Infrastruktur der Zukunft sind.

Infrastrukturen werden als Code dargestellt

In den Umgebungen der großen Hyperscaler ist „Infrastructure as code“ längst kein neues Thema mehr. Dabei werden Ressourcen innerhalb der Cloudsysteme als Code beschrieben und an die Plattform des Hyperscalers übermittelt – diese baut dann die Infrastrukturen basierend auf den als Code übermittelten Bauplänen. Einen großen Vorteil bieten hier Herstellerunabhängige Sprachen wie Terraform, da die Vorlagen mit wenig Anpassungen unabhängig von der Cloudplattform bereitgestellt werden können.

Aber auch in lokalen Infrastrukturen wird das Thema „Infrastructure as Code“ in Zukunft an Bedeutung gewinnen. Mit Lösungen wie RedHat Ansible kann die codebasierte Bereitstellung auf Plattformen wie VMWare erweitert werden und immer mehr Netzwerkhersteller bieten Integrationen in die „Infrastructure as Code“-Lösungen. Dadurch können Infrastrukturen mit wenig Aufwand automatisiert bereitgestellt und angepasst werden. Und mit Hilfe von Codeverwaltungslösungen können Änderungen an bestehenden Infrastrukturen gleichzeitig dokumentiert werden.

Zero-Trust wird zum Standard

Im Security Bereich galt lange Zeit der eigene Perimeter als die sichere Grenze, d.h. der Fokus der Security-Bemühungen lag vor allem darauf zu verhindern, dass Angreifer Zugriffe auf das interne Netz bekommen, während Akteure innerhalb des Netzwerks weitestgehend vertraut wurde. Durch immer clever werdende Angriffsszenarien gilt dieser Grundgedanke heute nicht. Stattdessen etabliert sich seit einigen Jahren der Zero-Trust-Ansatz und wird sich in den kommenden Jahren als Standard durchsetzen.

Der Grundgedanke hinter Zero-Trust steckt dabei eigentlich schon im Namen: es wird davon ausgegangen, dass jedes Gerät potenziell kompromittiert sein könnte und daher erst einmal nicht vertrauenswürdig ist. Daher ist grundsätzlich beim Zugriff auf Ressourcen eine Authentifizierung und Autorisierung notwendig. Für letztere werden verschiedene Faktoren ausgewertet, z.B. ob das zugreifende Geräte den festgelegten Sicherheitseinstellungen entspricht oder ob für den Benutzer gerade eine aktive Risikobewertung vorliegt.

Zusätzlich kann der Ansatz durch die Verwendung von KI-gestützer Analyse unterstützt werden. Durch die Erfassung von Securityevents und Anmeldelogs können so z.B. Bewegungsmuster der Mitarbeiter innerhalb der IT erstellt werden. Diese werden dann automatisch auf Abweichungen überprüft, die auf eine Kompromittierung des Benutzeraccounts schließen lassen.

Software defined everything

In den letzten Jahren kommen verstärkt Technologien wie SD-WAN zum Einsatz und lösen klassische Konstrukte wie z.B. MPLS ab. „SD“ steht dabei für „software defined“. Anders als z.B. bei einem klassischen MPLS-Netzwerk werden die verschiedenen Standorte dabei aber nicht durch einen Provider miteinander verbunden. Stattdessen schalten sich die Router, natürlich stark vereinfach ausgedrückt, zu einem WAN zusammen und nutzen dabei die vorhandenen Anbindungen ans Internet. Dadurch wird das eigene WAN flexibler: fällt zum Beispiel die Leitung eines Providers aus, schalten die Router automatisch auf eine Fallback-Leitung. Auch im Storage und Datacenter-Bereich erhält das Prinzip software defined immer mehr Beachtung.

Monitoring und Automatisierung werden vereinheitlicht

Im Bereich Monitoring und Automatisierung wird eine Vereinheitlichung stattfinden. Gerade das Monitoring der eigenen Infrastruktur ist heute ein aufwändiger Prozess, da sich die Schnittstellen der Hersteller oft voneinander unterscheiden und wenig Standardisierung herrscht. Auch Automatisierungen, z.B. die automatisierte Installation von Updates stellen Administratoren immer wieder vor Probleme.

Die Umstellung auf „software defined“-Komponenten und Infrastructure as Code wird in Zukunft einige Dinge vereinfachen. So können z.B. Geräte über als Code definierte Konfigurationen standardmäßig in vorhandene Monitoring Lösungen integriert werden.

Mit Lösungen wie Azure ARC ist es bereits möglich Windows Server auf einer zentralen Plattform zu verwalten, unabhängig davon wo die virtuelle Maschine betrieben wird.

Kategorien
Michael Marliani Neuigkeiten

Autonomes Fahren – Wird ein Fahrer bald nicht mehr benötigt?

Das Thema Autonomes Fahren erfreut sich spätestens seit dem Auftreten von Tesla großer Aufmerksamkeit in den Medien. Doch wirft dieses kontroverse Thema einige Fragen auf. In diesem Blogeintrag möchte ich einige Fragen klären und Ihnen die technischen Aspekte erläutern.

Was ist autonomes Fahren?

Im Gegensatz zum assistierten oder automatisierten Fahren wird der Fahrer beim autonomen Fahren nicht mehr benötigt. Auch das Überwachen des Fahrzeuges kann von entsprechendem Personal des Herstellers übernommen werden. Der Fahrer wird somit zum Passagier, da das Fahrzeug in der Lage ist, auch komplexe Verkehrssituation zu erfassen und die richtige Aktion auszuführen.

Wie funktioniert autonomes Fahren?

Um autonomes Fahren zu ermöglichen, ist die Zusammenarbeit von diversen Sensoren und Videosystemen unabdinglich. Zudem sorgt eine intelligente Programmierung für schnellstmögliche Umsetzung.

Um dem Fahrzeug zu ermöglichen, seine Umgebung wahrzunehmen, werden Radarsysteme, LiDAR (Light Detection and Ranging) und Ultraschall eingesetzt.
Radar wird schon heute in vielen Fahrzeugen eingesetzt, um z.B. den Abstand zu einem vorausfahrenden Fahrzeug und dessen Geschwindigkeit zu ermitteln. Diese Daten werden dann z.B. vom Notbremsassistent oder der adaptiven Geschwindigkeitsregelanlage genutzt.
Auch Ultraschall wird heute in Einparkassistenten bereits verwendet und dient hauptsächlich in der Erfassung der näheren Umgebung des Fahrzeuges.

LiDAR findet seinen Hauptanwendungszweck in der Generierung hochauflösender 3D-Informationen in Echtzeit. LiDAR arbeitet dabei mit Lasern, deren Reflektionen durch Fotosensoren erfasst werden. Durch die „Time of Flight“ oder auch Laufzeitmessung wird mithilfe der Lichtgeschwindigkeit die Entfernung zu einem Objekt errechnet. Alternativ werden Laser verschiedener Frequenz verwendet. LiDAR-Systeme können rund eine Million dieser Impulse pro Sekunde abgeben. Die Rückgabe kann dann zu einer 3D-Visualisierung verarbeitet werden, die als „Punktwolke“ bezeichnet wird.

Eine weitere Technologie, die das autonome Fahren ermöglicht, ist die Bildverarbeitung. Hierzu werden hochauflösende Stereokameras verwendet, die in der Lage sind, die Umgebung dreidimensional aufzunehmen. So können u.a. Straßenschilder, andere Autos und Fußgänger erkannt werden.

Der Computer im Fahrzeug muss diese von den unterschiedlichen Sensoren produzierten großen Datenmengen sehr schnell verarbeiten und zu einem gesamten Bild der Umgebung zusammenfassen. Der Fachbegriff hierfür lautet Sensorfusion. Um eine möglichst schnelle Verarbeitung zu ermöglichen, werden immer leistungsfähigere Prozessoren in die Fahrzeuge eingebaut. Zusätzlich werden Techniken aus den Bereichen der künstlichen Intelligenz und Big Data verwendet.

Ausblick in die Zukunft

Schon heute wird ein Grundstein für autonomes Fahren in der Zukunft gelegt. Fahrzeuge, die mit einigen der oben genannten Sensoren ausgestattet sind, z.B. der VW Golf 8, ergänzen Kartendaten, um in Zukunft bereits umfängliche Daten zur Verfügung stehen zu haben. Aber auch die Technologie wird weiterentwickelt. So wird an Techniken gearbeitet, die die Kommunikation zwischen Verkehrsinfrastruktur und Fahrzeugen, sowie Fahrzeugen untereinander ermöglicht. Hierfür ist auch der Ausbau des Mobilfunkstandards 5G unabdingbar. Lesen Sie dazu doch gerne unseren Blogeintrag.

Allerdings darf auch die Sicherheit vor Hackerangriffen nicht vernachlässigt werden. Zusätzlich müssen Gesetze entworfen werden, die z.B. im Falle von Unfällen Haftbarkeit regeln.

Fazit

Der Bereich des autonomen Fahrens vereint viele umfangreiche Aspekte der modernen Technologie, wovon sich viele noch in der Entwicklung befinden. Vorerst wird ein menschlicher Fahrer wohl weiterhin das Verkehrsgeschehen überwachen, doch mit weitern technischen Fortschritt könnte sich dies in naher Zukunft vielleicht ändern und wir könnten auch ohne einen Chauffeur auf dem Weg zur Arbeit die Zeitung lesen.

Kategorien
Michael Marliani NConnect

5G – Das Netz der neuen Möglichkeiten

5G ermöglicht den Ausbau vieler anderer Technologien, wie autonomes Fahren, Industrie 4.0 oder auch private Smartgadgets. Länder wie China treiben den Fortschritt voran, doch wie steht es um den Netzausbau bei uns in Deutschland? Welche Vorteile bietet der Ausbau eines 5G- Netzes und wie können Firmen 5G in ihre Infrastruktur integrieren?

5G – Eine Einleitung

5G ist die Weiterentwicklung des Vorgängers 4G und eine neue Entwicklungsstufe im Mobilfunk. Der aktuelle Mobilfunkstandard Log Term Evolution, besser bekannt als LTE, kann im einfachen Betrieb eine Bandbreite bis zu 150Mbit/s erzeugen. In Städten sind sogar bis zu 300 Mbit/s möglich. Diese Leistung reicht für die meisten privaten Anwendungszwecke, wie z.B. mobiles Videostreaming oder das Versenden von Nachrichten, vollkommen aus. 5G soll LTE nicht vollkommen ablösen, sondern parallel zu LTE betrieben werden. 5G ermöglicht mit seiner erhöhten Bandbreite von bis zu 10 Gbit/s neue Möglichkeiten in der Vernetzung.

Wie funktioniert die Technologie?

Die höhere Datenrate erreicht 5G unter anderen dadurch, dass auch die Mobilgeräte OFDM (Orthogonal Frequency-Division Multiplexing) nutzen, um die Überlagerung mehrer Wellenzüge zu vermeiden. OFDM ist ein Verfahren, das Daten über mehrere Trägersignale versendet. Damit einzelne Geräte sich nicht gegenseitig beim Senden eines Signals stören, muss eine Modulation stattfinden, sodass sich die einzelnen Signale in Amplitude, Frequenz und/oder Phase unterscheiden. Andernfalls würde jedes Endgerät ein potenzielles Störsignal darstellen und die Datenübertragung wäre fehlerbehaftet. Im LTE Standard sind die Endgeräte nur in der Lage eine einfachere Version dieser Technologie zu verwenden, die nur ein einzelnes Trägersignal nutzen. (Single Carrier FDMA).

Eine weitere technische Weiterentwicklung findet zudem im Frequenzbereich statt. Das Frequenzspektrum wird bei 5G in zwei Bereiche unterteilt, die als FR1 und FR2 bezeichnet werden. FR1 umfasst die Frequenzen zwischen 600 MHz und 6 GHz. Der Frequenzbereich FR2 beginnt oberhalb von 24 GHz und arbeitet im Millimeterwellenbereich. Vorerst wurden Frequenzen bis 40 GHz für 5G freigegeben, eine Erweiterung bis zu 60 oder 80 GHz ist in Zukunft jedoch denkbar und möglich. Diese elektromagnetischen Wellen können enorme Datenmengen übertragen. Allerdings nimmt die Reichweite mit höherer Frequenz ab. Diese Wellen können allerdings keine einfachen Hindernisse wie Wände oder Bäume durchdringen.

Geformt werden diese Wellen durch sogenannte Phased-Array-Antennen. Diese Antennen bündeln die Strahlungsenergie, indem sie Einzelstrahler geschickt anordnen und verschalten. Bei 5G kommt diese Technik bei Millimeterwellen zum Einsatz, um einzelne Empfangsgeräte bei Bedarf gezielt mit hohen Datenraten zu versorgen.

Die 5G-Spezifikation sieht bis zu 256 Einzelantennen vor, die für ein sogenanntes massives MIMO (Multiple Input Multiple Output) verschaltet werden können. Dies ermöglicht dem Endgerät vorhandene Daten an mehrere Empfänger gleichzeitig zu senden und somit die Daten und Fehlerrate zu verbessern. Die „smarten“ Antennen setzen dann die einzelnen Pakete wieder zu den gesendeten Daten zusammen.

Carrier Aggregation ist eine weitere Technologie, die große Anwendung in 5G findet. Diese Technik teilt einem Endgerät mehrere Frequenzblöcke zu. Die maximale Datenrate pro Nutzer erhöht sich dabei um die Anzahl der Frequenzblöcke.

Anwendungsbereiche der 5G Technik

Die 5G-Technik ist grundsätzlich auf drei verschiedene Anwendungsszenarien ausgerichtet:

eMBB – Enhanced Mobile Broadband

Dieser Anwendungsbereich stellt eine hohe Datenrate zur Verfügung. Somit unterstützt das 5G-Mobilfunknetz Dienste mit hohen Breitbandanforderungen, z.B. Virtual und Augmented Reality.

mMTC – Massive Machine Type Communications

5G optimiert ebenfalls die machine-to-machine-Kommunikation und das Internet der Dinge (IoT). Mittels mMTC wird eine große Anzahl von Geräten oder Komponenten miteinander vernetzt. Diese Technik findet unter anderem Anwendung in den Bereichen Smart Cities, Logistics und Smart Agriculture.

uRLLC – ultra-Reliable and Low-latency Communications

Dienste, die besonders kurze Antwortzeiten von wenigen Millisekunden benötigen und nicht ausfallen dürfen, werden dank Ultra-Reliable and Low latency communications ermöglicht. Beispiele dafür sind:

  • Autonomes Fahren
  • Automatische Fahrassistenten
  • Predictive Maintenance
  • Car-to-Car-Kommunikation

Was bedeutet 5G für Betriebe?

Mit sogenannten Campusnetzen, die von der Bundesnetzagentur zur Verfügung gestellt werden, sind Betriebe in der Lage, private 5G Frequenzen zu nutzen. Ein Beispiel dafür ist Porsche. Der Sportwagenhersteller nimmt bereits sein zweites privates 5G Netz in Betrieb. Im Werk in Leipzig wird 5G dafür genutzt, kabellos Signale an die Roboter im Karosseriebau zu senden. Mit der gesammelten Erfahrung sollen künftig Automatisierungskonzepte erarbeitet werden.

In China wird 5G unteranderem unterirdisch in Minen eingesetzt, um auch unter der Erde Geräte miteinander zu vernetzen und „smart mining“ zu verwirklichen, um die Ressourcengewinnung effizienter zu gestalten.

Der Ausbau in Deutschland

Der Ruf des deutschen Mobilfunks ist nicht sonderlich gut. Doch in den letzten 10 Jahren wurden insgesamt über 33.000 neue Mobilfunkmasten gebaut. Das geht aus einem Aufsatz im ifo-Schnelldienst hervor. Allerdings gibt es immer noch Funklöcher, die nicht nur wie weitestgehend angenommen in ländlichen Regionen zu Signalstörungen führen, sondern sind auch entlang Autobahnen zu verzeichnen. Gerade wenn es um autonomes Fahren oder intelligente Fahrassistenten geht, hätte ein Abbruch der Verbindung fatale Folgen. Daraus kann erschlossen werden, dass eine gute Verkehrsvernetzung das Unfallrisiko minieren könnte. Auch viele andere Zukunftstechniken setzen auf den neuen Mobilfunkstandard, um das Leben der Menschen zu optimieren.

Auf der Website der Telekom ist eine Karte zu finden, welche die Abdeckung von 5G in Deutschland farblich darstellt. Auf dieser ist klar zu erkennen, dass in Teilen von Deutschland bereits eine gute Abdeckung herrscht. Allerdings gibt es vor allem in Nord- und Ostdeutschland noch große Lücken, die dringend aufgearbeitet werden müssen. Dennoch sind bei näherer Betrachtung der Karte Flächen zu erkennen, die nur kleinere Lücken vorweisen oder bereits vollkommen bedeckt sind.

Es kann festgehalten werden, dass der Ausbau eines 5G- Netzes und die damit einhergehende erhöhe Bandbreite nicht nur als ein technologischer Fortschritt im öffentlichem Mobilfunknetz, sondern auch für betriebliche LANs und WANs in Frage kommt. Mit unserem Produkt NConnect können wir jetzt schon Lösungen für fortschrittlichste Unternehmensvernetzung anbieten. Kontaktieren Sie gerne unseren Vertrieb, wenn Sie mehr zu diesem Thema wissen möchten.