Kategorien
Neuigkeiten

So schließen Sie mit einem Rollenkonzept Sicherheitslücken in Ihrer Microsoft 365 Organisation

Die ständig wachsende Anzahl der Cyberangriffe auf Wirtschaftsunternehmen und andere Institutionen erfordern stets großes Augenmerk auf die möglichen Einfallstore in die IT-Infrastruktur der jeweiligen Einrichtungen. Vor allem Administratorenkonten sind ein beliebter Angriffspunkt, weil sie nach erfolgreichem Angriff vielerlei Handlungsmöglichkeiten bieten. In diesem Beitrag zeigen wir Ihnen, wie Benutzerrollen möglichst sicher organisiert werden können, und wie mit der Rolle „Globaler Administrator“ in einer Microsoft Organisation umgegangen werden sollte.

Ein Globaler Administrator hat die unbegrenzte Kontrolle aller Produkte in einem Tenant, dem Hauptkonto einer Microsoft 365 Umgebung. Er kann sämtliche Einstellungen in einer Microsoft-Umgebung ändern und hat dadurch weitreichenden Einfluss. Diese Rolle sollte nicht leichtsinnig vergeben werden, da eine hohe Anzahl an Administratorenkonten auch die Chance erhöht, dass eines dieser Konten kompromittiert wird. Microsoft empfiehlt beispielsweise die Anzahl der Administratorenkonten auf zwei bis maximal vier Konten pro Tenant zu begrenzen.

Trotzdem finden wir oft die Situation vor, dass Organisationen zu großzügig mit Administratorrollen umgehen, weil sie sich ihres Handlungsspielraumes entweder nicht bewusst sind, oder weil temporäre Rollenvergaben nicht dokumentiert wurden und deshalb in Vergessenheit geraten sind. Um Sicherheitslücken durch unüberwachte Administratorrechte bestmöglich zu schließen, sollte jede Organisation über ein Rollenkonzept verfügen.

Ein Rollenkonzept funktioniert nach dem „so viel wie nötig, so wenig wie möglich“ -Prinzip. Es sorgt dafür, dass alle Mitarbeiter:innen genügend Rechte haben, um ihre Arbeit ohne Probleme auszuführen und verhindert dabei, dass sie mehr Rechte haben als nötig. So wird das Schadensrisiko durch einen Identitätsklau auf den Handlungsspielraum des Accounts minimiert.

Um ein Rollenkonzept zu entwickeln muss zunächst identifiziert werden, welche Personengruppen welche Rechte benötigen. Anschließend können Rollen für bestimmte Personengruppen mit definierten Rechten entwickelt werden. Für einige Personengruppen gibt es von Microsoft schon vorgefertigte Rollen-Templates. Beispielsweise gibt es für SharePoint Administratoren eine vorgefertigte SharePoint-Administratorrolle. Diese berechtigt zum Erstellen und Löschen von Websites und zum Verwalten von Websitesammlungen sowie globalen SharePoint-Einstellungen.

Zusätzlich zu den Rechten, die Personen über ihre zugeteilte Rolle erhalten haben, können zeitlich begrenzte Administratorrechte über ein gesondertes Genehmigungsverfahren erteilt werden. Hierfür wird das sogenannte Privileged Identity Management (PIM) im Azure Active Directory (AD) verwendet, für dessen Einrichtung allerdings besondere Lizenzen benötigt werden.  Damit kann ein SharePoint Administrator beispielsweise Zugriffsrechte für einen anderen Bereich anfordern, welche von einem globalen Administrator für einen begrenzten Zeitraum freigegeben werden können. So kann verhindert werden, dass Accounts überflüssig mit Administratorrechten versehen sind, obwohl diese nur selten benötigt werden.

Mit unserem diversen Dienstleistungsportfolio für Microsoft 365 Organisationen bieten wir Ihnen gerne Hilfestellung bei der Analyse Ihrer aktuellen Rollenstruktur und unterstützen Sie bei der Entwicklung eines Rollenkonzeptes. So können Sie den Schaden durch Identitätsangriffe beachtlich einschränken! Lesen Sie auch unseren Artikel zur Multi-Faktor Authentifizierung.

Kategorien
Neuigkeiten

Make or Buy? – Welche IT-Herausforderungen können Sie intern meistern und für welche holen Sie sich besser Unterstützung?

In der heutigen Geschäftswelt stehen Unternehmen vor einer Vielzahl von IT-Herausforderungen, für die es meistens nicht nur eine offensichtliche Lösungsmöglichkeit gibt. Dabei kann es viele Szenarien geben, welche von der internen IT gelöst werden können, während andere Szenarien vielleicht einen Spezialisten von außen erfordern. Mit diesem Beitrag möchten wir IT Managern eine Entscheidungshilfe geben, mit der die Frage „Make or Buy“ – selber machen oder zukaufen, besser beantwortet werden kann.

Bei der Entscheidung, ob IT-Lösungen eingekauft werden sollten oder selbst entwickelt werden können, müssen mehrere Faktoren berücksichtigt werden. Zu den internen Faktoren, die bei der Entscheidung für die Implementierung von IT-Lösungen zu berücksichtigen sind, gehören IT-Fachwissen, technische Fähigkeiten und Ressourcen, die für die Entwicklung zur Verfügung stehen, sowie die Kosten und der Zeitrahmen für die Entwicklung. Zu den externen Faktoren gehören das Fachwissen und die Gebühren von Drittanbietern, die mit dem Outsourcing verbundenen Risiken wie Kommunikations- und Sicherheitsfragen sowie die langfristige Wartung und Unterstützung.

Zunächst einmal stellt sich die Frage, ob Sie in Ihrem Unternehmen überhaupt die interne Kompetenz besitzen, um bestimmte IT-Herausforderung selbst anzugehen. In vielen Fällen kann diese Frage nicht konkret mit Ja oder Nein beantwortet werden, sondern es muss herausgefunden werden, unter welchen Bedingungen die Lösung selbst entwickelt werden kann. Möglicherweise kann die Lösung selbst entwickelt werden, wenn ein externer Projektmanager zugekauft wird, der bereits Erfahrung in der entsprechenden Aufgabenstellung hat und das interne Team anleiten kann. Sie könnten allerdings auch zu dem Entschluss kommen, dass das interne IT-Team zu wenig Kompetenzen in diesem Bereich besitzt und große Schulungsmaßnahmen notwendig wären, um die Herausforderung  anzunehmen. In diesem Fall muss also abgewogen werden, ob der Schulungsaufwand lohnenswert ist, oder ob die eigenen Ressourcen nicht besser an einer anderer Stelle eingesetzt wären, und die IT-Herausforderung outgesourced werden sollte.

Auch zeitliche Beschränkungen spielen bei der Entscheidungsfindung eine Rolle.  Handelt es sich um eine IT-Herausforderung mit einem zeitlich begrenzten Ressourcenaufwand, kann die Schulung der Internen IT Ressourcen möglicherweise nicht lohnenswert sein. Outsourcing kann eine gute Option sein, wenn Zeit ein kritischer Faktor ist, denn es ermöglicht die Nutzung des Fachwissens von Drittanbietern, um Lösungen schnell zu entwickeln. Handelt es sich allerdings um eine Aufgabe, die über einen längeren Zeitraum bestehen bleibt oder sogar gar kein Ende finden wird, kann der Ertrag für den internen Schulungsaufwand größer ausfallen.

Bei der „Make or Buy“ Entscheidung sind außerdem verschiedene Risiken zu berücksichtigen. Bei der internen IT sollten sich Unternehmen der potenziellen Bedrohung durch Insider bewusst sein, z. B. durch Mitarbeiter, die absichtlich oder unabsichtlich die Sicherheit der Daten und Systeme des Unternehmens gefährden. Sie sollten strenge Zugangskontrollen einführen, um den Zugang der Mitarbeiter zu sensiblen Daten und Systemen zu begrenzen.

Bei externer IT-Unterstützung sollten Unternehmen ihre Drittanbieter und Dienstleister sorgfältig prüfen, um sicherzustellen, dass sie über solide Sicherheitsmaßnahmen verfügen und die Branchenstandards und -vorschriften einhalten. Außerdem sollten sie klare Protokolle für den Austausch sensibler Daten mit Drittanbietern erstellen und diese Protokolle regelmäßig überprüfen und aktualisieren.

Generell sollten Unternehmen ihre Sicherheitsprotokolle regelmäßig überprüfen und aktualisieren sowie Mitarbeiter und Drittanbieter fortlaufend schulen und weiterbilden, um sicherzustellen, dass alle Beteiligten über die neuesten Sicherheitsbedrohungen und die besten Methoden zu deren Abwendung informiert sind. Darüber hinaus kann ein gut definierter Plan für die Reaktion auf Sicherheitsvorfälle oder -verletzungen dazu beitragen, den Schaden zu minimieren, der durch solche Ereignisse entsteht.

Zusammenfassend lässt sich sagen, dass die Entscheidung, ob IT-Lösungen hergestellt oder gekauft werden sollen, eine kritische Entscheidung ist, die sich erheblich auf den Erfolg eines Unternehmens auswirken kann. Indem Sie Faktoren wie Schlüsselstärken, Kosten, zeitliche Beschränkungen, Risiken und langfristige Wartungsanforderungen berücksichtigen, können Sie eine fundierte Entscheidung über die beste Vorgehensweise für Ihr Unternehmen treffen.

Wenn Sie vor einer ähnlichen Entscheidung stehen, bieten wir bei Netpoint Ihnen hierbei weiterführende Unterstützung. Unsere Consultants beraten Sie gerne in unterschiedlichen Szenarien und überprüfen, ob Sie eine bestimmte IT-Herausforderung selbst angehen können und sollten, und welche weiteren Maßnahmen zur eigenen Durchführung hierzu nötig wären. Darüber hinaus bieten wir Ihnen die vollständige Übernahme komplexer IT-Projekte an, damit Sie Ihre Ressourcen anderweitig, und auch möglicherweise besser einsetzen können.

Kategorien
Neuigkeiten

Netzwerkausfälle mit einem Monitoring System verhindern

Frau Meier ist wütend, weil sie wichtige Dokumente nicht drucken kann. Herr Müller hat ein internationales Meeting mit einem der größten Vertriebspartner, kommt aber nicht auf den Server um seine Präsentation abzurufen. Alle Techniker im Außendienst stehen still, weil keine Termine eingesehen werden können. Nichts geht mehr! Im besten Fall? Ein Teilausfall. Im schlimmsten Fall? Ein Totalausfall.

Die Kosten eines Netzwerkausfalls

Haben Sie sich jemals gefragt, was ein Totalausfall Ihres Netzwerks Ihre Firma kosten kann? Die Kosten steigen im Sekundentakt. Eine Studie des Research-Instituts OnePull ergab, dass ein Netzwerkausfall in Unternehmen mit einer Größe von bis zu 5.000 Mitarbeitern durchschnittlich 41.000€ Kosten pro Stunde verursacht. Die Studie wurde im Januar 2020 mit 500 IT-Verantwortlichen in Nordamerika und Europa durchgeführt. Weiterhin wurden die Teilnehmer zur Häufigkeit dieser Ausfälle befragt. Mehr als die Hälfte, nämlich 58 Prozent, verzeichneten im vergangenen Jahr vier oder mehr Netzwerkausfälle, die länger als eine halbe Stunde andauerten.

 

Ausfälle minimieren durch Vorsorge und Kontrolle

Ein Netzwerkausfall muss nicht sein und ist in den meisten Fällen verhinderbar. Mit einem Netzwerk Monitoring System kann das Netzwerk überwacht und mögliche Fehlerquellen proaktiv kontrolliert werden. Wenn beispielsweise ein Netzwerkswitch ausfällt, kann die Fehlerquelle im Monitoring-System sofort identifiziert und ein Austauschgerät schnellstmöglich eingesetzt werden. Ohne Monitoring System kann die Fehlersuche wertvolle Zeit kosten.

Die Basis: Ein IT-Notfallplan

Beim IT-Notfallplan handelt es sich um eine Art Handbuch, das Handlungsanweisungen und Notfallmaßnahmen bei Problemen mit der IT behandelt. Mit Hilfe eines solchen Plans lassen sich Ausfallzeiten verkürzen und die Schäden durch IT-Probleme minimieren. Ein Notfallplan umfasst immer technische, aber auch organisatorische Informationen. Folgende Fragen sollten vorher geklärt werden:

  • welche Auswirkungen hat der Ausfall eines bestimmten IT-Systems?
  • welche Ausfallzeiten sind zu verkraften?
  • was ist zu tun, um die Funktion der Systeme wiederherzustellen?
  • wer ist bei Problemen zu informieren?
  • wie sind Personen oder Firmen zu erreichen?

Nach mehr als 25 Jahren in der IT-Branche wissen wir, dass die Herausforderungen und Komplexität Ihrer IT-Strukturen stetig steigen. Wir unterstützen, beraten und begleiten Sie gerne bei der Implementierung eines Netzwerk Monitoring Systems. So profitieren Sie nicht nur durch die Erhöhung Ihrer Ausfall- und Datensicherheit, sondern auch von sofortigen Reaktionen bei Notfällen durch unser Eskalationsmanagement.

Kategorien
Neuigkeiten

Mit der Multi-Faktor-Authentifizierung 99% aller Angriffe auf Identitäten abwehren.

Administratorkonten werden von Hackern und Angreifern sehr oft direkt ins Visier genommen, da diese einen sehr großen Spielraum für Hacker bieten, Daten zu stehlen, Einstellungen vorzunehmen oder ähnliche Dinge am Netzwerk zu vollrichten. Administratoren arbeiten ständig mit sensiblen, kritischen und geheimen Daten, die für die Öffentlichkeit nicht frei zugänglich sein sollen. Ein erfolgreicher Cyberangriff auf einen Administratoraccount ohne eine vorher aktivierte Authentifizierungsmethode für das Administratorkonto hätte daher erhebliche Folgen für das jeweilige Unternehmen, deren Kunden und letztendlich dem wirtschaftlichen Erfolg. In diesem Artikel zeigen wir Ihnen, wie sie mit der Zwei-Faktor-Authentifizierung 99% aller Cyberangriffe auf Nutzerkonten abweisen können.

Die Einrichtung einer Multi-Faktor Authentifizierung

Die MFA (Multi Faktor Authentifizierung) oder auch Zwei-Faktor bzw. Zwei-Phasen Authentifizierung bezeichnet eine Methode, bei der eine oder mehrere zusätzliche Authentifizierungsmethoden beim Login genutzt werden. Im Folgenden zeigen wir, welche unterschiedlichen Verfahren für die Einrichtung einer MFA bei Microsoft 365 Konten verwendet werden können.

Zum Beispiel besteht die Möglichkeit, nach Eingabe des Passworts eine SMS mit einem Zifferncode zu erhalten, welcher zusätzlich nach der Eingabe des Passworts eingegeben werden muss. Anderenfalls können biometrische Authentifizierungsmethoden wie einen Fingerabdrucksensor am Computer verwendet werden, die bei Windows in den Sicherheitseinstellungen über „Windows Hello“ aktiviert werden können.

Weitere Möglichkeiten bietet die Microsoft Authenticator App, welche in jedem Smartphone App Store kostenlos erhältlich ist. Die App bietet neben einem Zahlencode die Option, eine Push-Benachrichtigung bei einem Anmeldeversuch zu erhalten, welche anschließend nur bestätigt werden muss. Dabei ist der Zugang zur App selbst durch ein Passwort oder eine biometrische Methode wie Fingerabdruck oder Gesichtserkennung geschützt. Ein weiterer Vorteil der Authenticator App ist die Tatsache, dass sie auch ohne eine aktive Internetverbindung genutzt werden kann.

Wer die MFA-Authentifizierung noch auf die Spitze der Sicherheitsmöglichkeiten treiben möchte, kann sich auf einen FIDO2 Key verlassen. FIDO2 (Fast IDentity Online Protocol) bietet eine sehr starke passwortlose MFA und nutzt zwei Faktoren wie biometrische Merkmale, Hardware-Keys oder Smartcards. FIDO2 arbeitet auf einer kryptografischen Grundlage des Challenge-Response Verfahrens und bildet eine asymmetrische Verschlüsselung. FIDO2 Keys gibt es zusätzlich auch mit einem integrierten biometrischen Fingerbadruckscanner oder mit einer NFC-Schnittstelle für beispielsweise eine Anmeldung am Handy oder Tablet.

Was tun, wenn doch einmal alles schief geht?

Nun bleibt die Frage, was man tun kann, wenn beispielsweise der Multifaktor Dienst eine Störung hat oder eine Fehlkonfiguration einer Regel des Dienstes vorgenommen wurde. Dafür gibt es sogenannte Break-Glass-Accounts.  Diese Accounts werden aus dem Regelwerk für die Anwendung der Multifaktor Authentifizierung ausgenommen, damit auch im Falle eines Fehlers oder eine Fehlkonfiguration des Dienstes weiterhin eine Zugriffsmöglichkeit gegeben ist. Zudem sind Break-Glass-Accounts mit einem sehr komplexen Passwort geschützt und jede Aktivität von einem solchen Account wird strengstens überwacht.

Die Verwaltung von Administratorenkonten und Einrichtung einer möglichst komfortablen Multi-Faktor Authentifizierungsmethode ist Teil unseres Managed Services, den wir mit unserem Produkt N365 ganz individuell für unsere Kunden anbieten. Wenn Sie von den Leistungen eines Managed Service Partners profitieren möchten, der beispielsweise die Einrichtung von MFAs und Überwachung der Break-Glass Accounts für Sie übernimmt, kontaktieren Sie uns gerne unverbindlich. Wir beraten Sie in sämtlichen Leistungsbereichen und erstellen für Sie ein Servicepaket, welches genau auf Ihre Infrastruktur zugeschnitten ist.

Kategorien
Neuigkeiten

Wie hängen SharePoint, OneDrive und Teams zusammen?

Office 365 bietet ein umfassendes Tool-Set, mit dem Mitarbeiter einer Organisation sämtliche Aufgaben individuell bearbeiten können. Die Erstellung kann sowohl allein als auch in Zusammenarbeit mit Kollegen und externen Stakeholdern erfolgen, welche gleichzeitig an gemeinsamen Dokumenten arbeiten können. Office 365 ist somit eine cloudbasierte Software-Lösung, welche auf vielen Ebenen verknüpft ist. Hier stellt sich immer wieder die Frage: Wo liegt eigentlich der Unterschied zwischen SharePoint, OneDrive und Teams?

SharePoint:

SharePoint unterstützt Organisationen beim Dokumentenmanagement und der Zusammenarbeit an Dateien. Es dient zum Austausch von Dokumenten mit größeren Gruppen in verschiedenen Organisationseinheiten und stellt eine zentrale Ablage bereit, um Unternehmensinformationen zu finden. Mit Hilfe von SharePoint können außerdem Workflow-Genehmigungsprozesse und die Veröffentlichung von Dokumenten geprüft und verwaltet werden.

OneDrive:

OneDrive ist, im Gegensatz zu SharePoint, ein persönlicher Dateienspeicher in der Cloud. Es ermöglicht die Dateiablage für einzelne Personen, die diese Dateien nicht mit ganzen Gruppen, Teams oder Unternehmensweit teilen möchten. Da die Dateiablage in der Cloud stattfindet – spart dies lokalen Speicherplatz.

Teams:

Teams ist in vielen Organisationen die Hauptkommunikations-Anwendung und bietet zahlreiche Funktionen wie Chat, Videokonferenz, und integrierte Dateibearbeitung. Wie der Name bereits verrät, kann man dort Teams gründen, um zum Beispiel an aktuellen Projekten zu arbeiten und sich insbesondere in Bezug auf das jeweilige Team gemeinsam auszutauschen.

Kategorien
Neuigkeiten

Mit NConnect bis zu 30% mehr verfügbare Bandbreite für Cloudanwendungen

Jahrelang waren On-Premises Serverlösungen wie ERP, HR oder File Service Systeme der Standard für den Datenspeicher und Austausch im Unternehmensnetzwerk. Diese Systeme erfordern allerdings hohe Hardwareinvestitionen und einen großen Maintenance-Aufwand. Darüber hinaus beanspruchen On-Premises Lösungen viel Platz für Serverräume und eine Netzwerkinfrastruktur, die auf großen internen Datenverkehr ausgelegt ist. Aus diesen Gründen sehen wir einen starken Trend in Richtung Cloud-Systeme. Cloud-Lösungen wie Azure oder AWS stellen externen Serverplatz zur Verfügung, ohne physischen Platz in den eigenen Lokationen einzunehmen. Dadurch wird der Anspruch an die eigene Netzwerkinfrastruktur und der damit verbundene Maintenance-Aufwand stark reduziert. Um allerdings die Vorteile von Cloud Lösungen nutzen zu können, muss eine Verbindung zwischen dem lokalen Netzwerk und der Cloud geschaffen werden.

VPN als Standard-Cloudverbindung

Der aktuell weit verbreitete Standard um die Verbindung zwischen dem eigenen Netzwerk und der gewählten Cloud Lösung herzustellen, ist VPN. Hierbei wird eine gesicherte Kommunikation mittels VPN Tunnel (IPSec) vom Unternehmensstandort in die Cloud aufgebaut. In der Cloud wird hierfür entweder ein VPN Gateway oder Firewall System implementiert. Voraussetzung hierfür ist, dass auch in jedem Standort ein VPN Gerät zum Aufbau der IPSec Verbindung existiert.

 

 

Die Kommunikation mittels VPN bzw. IPSec hat einen hohen zertifizierten Sicherheitsstandard mit einem Nachteil: Jedes Datenpaket welches im VPN Tunnel versendet wird enthält ein Tunnelprotokoll. Dieser sogenannte Overhead beansprucht 30% der verfügbaren Bandbreite und ist deshalb relativ ineffizient.

Mit NConnect auf Tunnelprotokolle verzichten

An dieser Stelle knüpfen wir mit unserem Produkt NConnect an. NConnect ist Netpoint’s individuelle Netzwerklösung, welches auf der SD-WAN Technologie von Juniper aufbaut. In diesem Fall wird aus dem Cloud Store eine Software in die Cloud Umgebung des Kunden installiert, sowie die Standorte des Kunden mit der dazugehörigen SD-WAN Hardware ausgestattet. So kann eine Verbindung über die lokalen Internetanschlüsse in die Cloud Umgebung geschaffen werden, die gleichermaßen hohe und zertifizierte Sicherheitsstandards hat, wie IPSec. Allerdings wird die Sicherheit der Verbindungen nicht über einzelne Tunnelprotokolle realisiert, die eigene Bandbreite beanspruchen, sondern über die Secure Vector Routing (SVR) Technologie. Hierbei werden Sicherheitsnetze über die gesamte Datenverbindung gespannt, wodurch der VPN-Overhead (bis zu 30%) eingespart werden kann.

Mit NConnect können außerdem weitere Underlay-Produkte wie MPLS-Leitungen oder 4G bzw. 5G Mobilfunkleitungen implementiert werden. Das erhöht die Flexibilität und ermöglicht, einzelne Verbindungen zu priorisieren.

 

 

Ein weiterer Vorteil ist die sogenannte Session-Smart Routing Technologie. Die genutzte Software ist in der Lage, wichtige Sessions zu erkennen und zu priorisieren, wodurch relevante Unternehmensaktivitäten immer die bestmögliche Verbindung erhalten. Lesen Sie hierzu gerne unseren Beitrag zum Thema Session Smart Routing.

Wenn Sie sich für unser Produkt NConnect interessieren und mehr über die vielfältigen Dienstleistungen erfahren möchten, die wir im Rahmen eines Managed Service anbieten, kontaktieren Sie uns gerne unverbindlich. Wir beraten Sie in sämtlichen Leistungsbereichen und erstellen für Sie ein Servicepaket, welches genau auf Ihre Infrastruktur zugeschnitten ist.

Kategorien
Neuigkeiten

Die IT Infrastruktur der Zukunft

Die Entwicklung von IT-Infrastrukturen war schon immer rasant und erforderte von IT-Fachkräften enorme Flexibilität. Doch kaum eine Entwicklung hat bisher so zentrale Änderungen mit sich gebracht wie die Einführung der Cloud. Ob es SaaS-Lösungen wie Microsoft 365 oder die Cloudplattformen der großen Cloud-Anbieter sind, die Einführung hat nicht nur Auswirkungen auf die Infrastruktur an sich, sondern zieht auch eine Anpassung zentraler Prozesse mit sich – sowohl innerhalb der IT- als auch in den Fachabteilungen. Aber die Erfahrung hat auch gezeigt, dass eine reine Cloudinfrastruktur nicht in allen Kundensituationen die optimale Lösung ist und zumindest auf absehbare Zeit hybride Lösungen der „way to go“ sind. Im Folgenden aber werden die Rahmenbedingungen beschrieben, welche maßgeblich für die IT-Infrastruktur der Zukunft sind.

Infrastrukturen werden als Code dargestellt

In den Umgebungen der großen Hyperscaler ist „Infrastructure as code“ längst kein neues Thema mehr. Dabei werden Ressourcen innerhalb der Cloudsysteme als Code beschrieben und an die Plattform des Hyperscalers übermittelt – diese baut dann die Infrastrukturen basierend auf den als Code übermittelten Bauplänen. Einen großen Vorteil bieten hier Herstellerunabhängige Sprachen wie Terraform, da die Vorlagen mit wenig Anpassungen unabhängig von der Cloudplattform bereitgestellt werden können.

Aber auch in lokalen Infrastrukturen wird das Thema „Infrastructure as Code“ in Zukunft an Bedeutung gewinnen. Mit Lösungen wie RedHat Ansible kann die codebasierte Bereitstellung auf Plattformen wie VMWare erweitert werden und immer mehr Netzwerkhersteller bieten Integrationen in die „Infrastructure as Code“-Lösungen. Dadurch können Infrastrukturen mit wenig Aufwand automatisiert bereitgestellt und angepasst werden. Und mit Hilfe von Codeverwaltungslösungen können Änderungen an bestehenden Infrastrukturen gleichzeitig dokumentiert werden.

Zero-Trust wird zum Standard

Im Security Bereich galt lange Zeit der eigene Perimeter als die sichere Grenze, d.h. der Fokus der Security-Bemühungen lag vor allem darauf zu verhindern, dass Angreifer Zugriffe auf das interne Netz bekommen, während Akteure innerhalb des Netzwerks weitestgehend vertraut wurde. Durch immer clever werdende Angriffsszenarien gilt dieser Grundgedanke heute nicht. Stattdessen etabliert sich seit einigen Jahren der Zero-Trust-Ansatz und wird sich in den kommenden Jahren als Standard durchsetzen.

Der Grundgedanke hinter Zero-Trust steckt dabei eigentlich schon im Namen: es wird davon ausgegangen, dass jedes Gerät potenziell kompromittiert sein könnte und daher erst einmal nicht vertrauenswürdig ist. Daher ist grundsätzlich beim Zugriff auf Ressourcen eine Authentifizierung und Autorisierung notwendig. Für letztere werden verschiedene Faktoren ausgewertet, z.B. ob das zugreifende Geräte den festgelegten Sicherheitseinstellungen entspricht oder ob für den Benutzer gerade eine aktive Risikobewertung vorliegt.

Zusätzlich kann der Ansatz durch die Verwendung von KI-gestützer Analyse unterstützt werden. Durch die Erfassung von Securityevents und Anmeldelogs können so z.B. Bewegungsmuster der Mitarbeiter innerhalb der IT erstellt werden. Diese werden dann automatisch auf Abweichungen überprüft, die auf eine Kompromittierung des Benutzeraccounts schließen lassen.

Software defined everything

In den letzten Jahren kommen verstärkt Technologien wie SD-WAN zum Einsatz und lösen klassische Konstrukte wie z.B. MPLS ab. „SD“ steht dabei für „software defined“. Anders als z.B. bei einem klassischen MPLS-Netzwerk werden die verschiedenen Standorte dabei aber nicht durch einen Provider miteinander verbunden. Stattdessen schalten sich die Router, natürlich stark vereinfach ausgedrückt, zu einem WAN zusammen und nutzen dabei die vorhandenen Anbindungen ans Internet. Dadurch wird das eigene WAN flexibler: fällt zum Beispiel die Leitung eines Providers aus, schalten die Router automatisch auf eine Fallback-Leitung. Auch im Storage und Datacenter-Bereich erhält das Prinzip software defined immer mehr Beachtung.

Monitoring und Automatisierung werden vereinheitlicht

Im Bereich Monitoring und Automatisierung wird eine Vereinheitlichung stattfinden. Gerade das Monitoring der eigenen Infrastruktur ist heute ein aufwändiger Prozess, da sich die Schnittstellen der Hersteller oft voneinander unterscheiden und wenig Standardisierung herrscht. Auch Automatisierungen, z.B. die automatisierte Installation von Updates stellen Administratoren immer wieder vor Probleme.

Die Umstellung auf „software defined“-Komponenten und Infrastructure as Code wird in Zukunft einige Dinge vereinfachen. So können z.B. Geräte über als Code definierte Konfigurationen standardmäßig in vorhandene Monitoring Lösungen integriert werden.

Mit Lösungen wie Azure ARC ist es bereits möglich Windows Server auf einer zentralen Plattform zu verwalten, unabhängig davon wo die virtuelle Maschine betrieben wird.

Kategorien
Neuigkeiten

Autonomes Fahren – Wird ein Fahrer bald nicht mehr benötigt?

Das Thema Autonomes Fahren erfreut sich spätestens seit dem Auftreten von Tesla großer Aufmerksamkeit in den Medien. Doch wirft dieses kontroverse Thema einige Fragen auf. In diesem Blogeintrag möchte ich einige Fragen klären und Ihnen die technischen Aspekte erläutern.

Was ist autonomes Fahren?

Im Gegensatz zum assistierten oder automatisierten Fahren wird der Fahrer beim autonomen Fahren nicht mehr benötigt. Auch das Überwachen des Fahrzeuges kann von entsprechendem Personal des Herstellers übernommen werden. Der Fahrer wird somit zum Passagier, da das Fahrzeug in der Lage ist, auch komplexe Verkehrssituation zu erfassen und die richtige Aktion auszuführen.

Wie funktioniert autonomes Fahren?

Um autonomes Fahren zu ermöglichen, ist die Zusammenarbeit von diversen Sensoren und Videosystemen unabdinglich. Zudem sorgt eine intelligente Programmierung für schnellstmögliche Umsetzung.

Um dem Fahrzeug zu ermöglichen, seine Umgebung wahrzunehmen, werden Radarsysteme, LiDAR (Light Detection and Ranging) und Ultraschall eingesetzt.
Radar wird schon heute in vielen Fahrzeugen eingesetzt, um z.B. den Abstand zu einem vorausfahrenden Fahrzeug und dessen Geschwindigkeit zu ermitteln. Diese Daten werden dann z.B. vom Notbremsassistent oder der adaptiven Geschwindigkeitsregelanlage genutzt.
Auch Ultraschall wird heute in Einparkassistenten bereits verwendet und dient hauptsächlich in der Erfassung der näheren Umgebung des Fahrzeuges.

LiDAR findet seinen Hauptanwendungszweck in der Generierung hochauflösender 3D-Informationen in Echtzeit. LiDAR arbeitet dabei mit Lasern, deren Reflektionen durch Fotosensoren erfasst werden. Durch die „Time of Flight“ oder auch Laufzeitmessung wird mithilfe der Lichtgeschwindigkeit die Entfernung zu einem Objekt errechnet. Alternativ werden Laser verschiedener Frequenz verwendet. LiDAR-Systeme können rund eine Million dieser Impulse pro Sekunde abgeben. Die Rückgabe kann dann zu einer 3D-Visualisierung verarbeitet werden, die als „Punktwolke“ bezeichnet wird.

Eine weitere Technologie, die das autonome Fahren ermöglicht, ist die Bildverarbeitung. Hierzu werden hochauflösende Stereokameras verwendet, die in der Lage sind, die Umgebung dreidimensional aufzunehmen. So können u.a. Straßenschilder, andere Autos und Fußgänger erkannt werden.

Der Computer im Fahrzeug muss diese von den unterschiedlichen Sensoren produzierten großen Datenmengen sehr schnell verarbeiten und zu einem gesamten Bild der Umgebung zusammenfassen. Der Fachbegriff hierfür lautet Sensorfusion. Um eine möglichst schnelle Verarbeitung zu ermöglichen, werden immer leistungsfähigere Prozessoren in die Fahrzeuge eingebaut. Zusätzlich werden Techniken aus den Bereichen der künstlichen Intelligenz und Big Data verwendet.

Ausblick in die Zukunft

Schon heute wird ein Grundstein für autonomes Fahren in der Zukunft gelegt. Fahrzeuge, die mit einigen der oben genannten Sensoren ausgestattet sind, z.B. der VW Golf 8, ergänzen Kartendaten, um in Zukunft bereits umfängliche Daten zur Verfügung stehen zu haben. Aber auch die Technologie wird weiterentwickelt. So wird an Techniken gearbeitet, die die Kommunikation zwischen Verkehrsinfrastruktur und Fahrzeugen, sowie Fahrzeugen untereinander ermöglicht. Hierfür ist auch der Ausbau des Mobilfunkstandards 5G unabdingbar. Lesen Sie dazu doch gerne unseren Blogeintrag.

Allerdings darf auch die Sicherheit vor Hackerangriffen nicht vernachlässigt werden. Zusätzlich müssen Gesetze entworfen werden, die z.B. im Falle von Unfällen Haftbarkeit regeln.

Fazit

Der Bereich des autonomen Fahrens vereint viele umfangreiche Aspekte der modernen Technologie, wovon sich viele noch in der Entwicklung befinden. Vorerst wird ein menschlicher Fahrer wohl weiterhin das Verkehrsgeschehen überwachen, doch mit weitern technischen Fortschritt könnte sich dies in naher Zukunft vielleicht ändern und wir könnten auch ohne einen Chauffeur auf dem Weg zur Arbeit die Zeitung lesen.

Kategorien
Neuigkeiten

5G – Das Netz der neuen Möglichkeiten

5G ermöglicht den Ausbau vieler anderer Technologien, wie autonomes Fahren, Industrie 4.0 oder auch private Smartgadgets. Länder wie China treiben den Fortschritt voran, doch wie steht es um den Netzausbau bei uns in Deutschland? Welche Vorteile bietet der Ausbau eines 5G- Netzes und wie können Firmen 5G in ihre Infrastruktur integrieren?

5G – Eine Einleitung

5G ist die Weiterentwicklung des Vorgängers 4G und eine neue Entwicklungsstufe im Mobilfunk. Der aktuelle Mobilfunkstandard Log Term Evolution, besser bekannt als LTE, kann im einfachen Betrieb eine Bandbreite bis zu 150Mbit/s erzeugen. In Städten sind sogar bis zu 300 Mbit/s möglich. Diese Leistung reicht für die meisten privaten Anwendungszwecke, wie z.B. mobiles Videostreaming oder das Versenden von Nachrichten, vollkommen aus. 5G soll LTE nicht vollkommen ablösen, sondern parallel zu LTE betrieben werden. 5G ermöglicht mit seiner erhöhten Bandbreite von bis zu 10 Gbit/s neue Möglichkeiten in der Vernetzung.

Wie funktioniert die Technologie?

Die höhere Datenrate erreicht 5G unter anderen dadurch, dass auch die Mobilgeräte OFDM (Orthogonal Frequency-Division Multiplexing) nutzen, um die Überlagerung mehrer Wellenzüge zu vermeiden. OFDM ist ein Verfahren, das Daten über mehrere Trägersignale versendet. Damit einzelne Geräte sich nicht gegenseitig beim Senden eines Signals stören, muss eine Modulation stattfinden, sodass sich die einzelnen Signale in Amplitude, Frequenz und/oder Phase unterscheiden. Andernfalls würde jedes Endgerät ein potenzielles Störsignal darstellen und die Datenübertragung wäre fehlerbehaftet. Im LTE Standard sind die Endgeräte nur in der Lage eine einfachere Version dieser Technologie zu verwenden, die nur ein einzelnes Trägersignal nutzen. (Single Carrier FDMA).

Eine weitere technische Weiterentwicklung findet zudem im Frequenzbereich statt. Das Frequenzspektrum wird bei 5G in zwei Bereiche unterteilt, die als FR1 und FR2 bezeichnet werden. FR1 umfasst die Frequenzen zwischen 600 MHz und 6 GHz. Der Frequenzbereich FR2 beginnt oberhalb von 24 GHz und arbeitet im Millimeterwellenbereich. Vorerst wurden Frequenzen bis 40 GHz für 5G freigegeben, eine Erweiterung bis zu 60 oder 80 GHz ist in Zukunft jedoch denkbar und möglich. Diese elektromagnetischen Wellen können enorme Datenmengen übertragen. Allerdings nimmt die Reichweite mit höherer Frequenz ab. Diese Wellen können allerdings keine einfachen Hindernisse wie Wände oder Bäume durchdringen.

Geformt werden diese Wellen durch sogenannte Phased-Array-Antennen. Diese Antennen bündeln die Strahlungsenergie, indem sie Einzelstrahler geschickt anordnen und verschalten. Bei 5G kommt diese Technik bei Millimeterwellen zum Einsatz, um einzelne Empfangsgeräte bei Bedarf gezielt mit hohen Datenraten zu versorgen.

Die 5G-Spezifikation sieht bis zu 256 Einzelantennen vor, die für ein sogenanntes massives MIMO (Multiple Input Multiple Output) verschaltet werden können. Dies ermöglicht dem Endgerät vorhandene Daten an mehrere Empfänger gleichzeitig zu senden und somit die Daten und Fehlerrate zu verbessern. Die „smarten“ Antennen setzen dann die einzelnen Pakete wieder zu den gesendeten Daten zusammen.

Carrier Aggregation ist eine weitere Technologie, die große Anwendung in 5G findet. Diese Technik teilt einem Endgerät mehrere Frequenzblöcke zu. Die maximale Datenrate pro Nutzer erhöht sich dabei um die Anzahl der Frequenzblöcke.

Anwendungsbereiche der 5G Technik

Die 5G-Technik ist grundsätzlich auf drei verschiedene Anwendungsszenarien ausgerichtet:

eMBB – Enhanced Mobile Broadband

Dieser Anwendungsbereich stellt eine hohe Datenrate zur Verfügung. Somit unterstützt das 5G-Mobilfunknetz Dienste mit hohen Breitbandanforderungen, z.B. Virtual und Augmented Reality.

mMTC – Massive Machine Type Communications

5G optimiert ebenfalls die machine-to-machine-Kommunikation und das Internet der Dinge (IoT). Mittels mMTC wird eine große Anzahl von Geräten oder Komponenten miteinander vernetzt. Diese Technik findet unter anderem Anwendung in den Bereichen Smart Cities, Logistics und Smart Agriculture.

uRLLC – ultra-Reliable and Low-latency Communications

Dienste, die besonders kurze Antwortzeiten von wenigen Millisekunden benötigen und nicht ausfallen dürfen, werden dank Ultra-Reliable and Low latency communications ermöglicht. Beispiele dafür sind:

  • Autonomes Fahren
  • Automatische Fahrassistenten
  • Predictive Maintenance
  • Car-to-Car-Kommunikation

Was bedeutet 5G für Betriebe?

Mit sogenannten Campusnetzen, die von der Bundesnetzagentur zur Verfügung gestellt werden, sind Betriebe in der Lage, private 5G Frequenzen zu nutzen. Ein Beispiel dafür ist Porsche. Der Sportwagenhersteller nimmt bereits sein zweites privates 5G Netz in Betrieb. Im Werk in Leipzig wird 5G dafür genutzt, kabellos Signale an die Roboter im Karosseriebau zu senden. Mit der gesammelten Erfahrung sollen künftig Automatisierungskonzepte erarbeitet werden.

In China wird 5G unteranderem unterirdisch in Minen eingesetzt, um auch unter der Erde Geräte miteinander zu vernetzen und „smart mining“ zu verwirklichen, um die Ressourcengewinnung effizienter zu gestalten.

Der Ausbau in Deutschland

Der Ruf des deutschen Mobilfunks ist nicht sonderlich gut. Doch in den letzten 10 Jahren wurden insgesamt über 33.000 neue Mobilfunkmasten gebaut. Das geht aus einem Aufsatz im ifo-Schnelldienst hervor. Allerdings gibt es immer noch Funklöcher, die nicht nur wie weitestgehend angenommen in ländlichen Regionen zu Signalstörungen führen, sondern sind auch entlang Autobahnen zu verzeichnen. Gerade wenn es um autonomes Fahren oder intelligente Fahrassistenten geht, hätte ein Abbruch der Verbindung fatale Folgen. Daraus kann erschlossen werden, dass eine gute Verkehrsvernetzung das Unfallrisiko minieren könnte. Auch viele andere Zukunftstechniken setzen auf den neuen Mobilfunkstandard, um das Leben der Menschen zu optimieren.

Auf der Website der Telekom ist eine Karte zu finden, welche die Abdeckung von 5G in Deutschland farblich darstellt. Auf dieser ist klar zu erkennen, dass in Teilen von Deutschland bereits eine gute Abdeckung herrscht. Allerdings gibt es vor allem in Nord- und Ostdeutschland noch große Lücken, die dringend aufgearbeitet werden müssen. Dennoch sind bei näherer Betrachtung der Karte Flächen zu erkennen, die nur kleinere Lücken vorweisen oder bereits vollkommen bedeckt sind.

Es kann festgehalten werden, dass der Ausbau eines 5G- Netzes und die damit einhergehende erhöhe Bandbreite nicht nur als ein technologischer Fortschritt im öffentlichem Mobilfunknetz, sondern auch für betriebliche LANs und WANs in Frage kommt. Mit unserem Produkt NConnect können wir jetzt schon Lösungen für fortschrittlichste Unternehmensvernetzung anbieten. Kontaktieren Sie gerne unseren Vertrieb, wenn Sie mehr zu diesem Thema wissen möchten.

 

Kategorien
Neuigkeiten

Unser Mitarbeiter Torben Blankertz zeigt Ihnen die einfache Umstellung auf das HomeSchooling

Schnelle Digitalisierung erfolgreich umsetzen.

Die Krise um COVID-19 strapaziert derzeit nicht nur Unternehmen sondern stellt auch die Bildungseinrichtungen vor neue Herausforderungen. Das führt im Augenblick zu einer Art ,,Zwangsdigitalisierung“, wenngleich auch erste Lockerungsmaßnahmen beschlossen wurden.

Die angeordnete Schließung der Bildungseinrichtungen übt auf die Lehrkräfte einen besonders hohen Druck aus. Der Lehrstoff muss über andere Wege kommuniziert werden. Es besteht Bedarf zum Handeln.

Microsoft Teams, eine Plattform, die Chat, Meetings, Notizen und Dokumentenablage sowie Datentausch ermöglicht, erfährt derzeit sehr hohen Zulauf und bietet genau das, was viele Unternehmen und Bildungseinrichtungen jetzt brauchen.

Bei einer schnellen und zielführenden Einarbeitung in diese Plattform möchten wir Ihnen als IT-Experte unterstützend zur Seite stehen!

Torben Blankertz, unser Spezialist für alle Themen rund um Microsoft, stellt Ihnen dafür eine Video-Serie über das Thema HomeSchooling zur Verfügung. In einer praktischen Demonstration erleben Sie die richtige Konfiguration sowie die Bedienung von Lehrer- als auch Schülerseite. Sie können die Video-Serie hier direkt kostenlos anschauen.

Sollten Sie weitere Hilfe benötigen oder Fragen zu entsprechenden Lizenzen haben, kontaktieren Sie uns gerne!

Wir freuen uns darauf Sie zu unterstützen, Ihr Netpoint Team!

Unser Support steht Ihnen 24 Stunden am Tag, 7 Tage die Woche, 365 Tage im Jahr zur Verfügung. Unser Support steht Ihnen 24 Stunden am Tag, 7 Tage die Woche, 365 Tage im Jahr zur Verfügung. Unser Support steht Ihnen 24 Stunden am Tag, 7 Tage die Woche, 365 Tage im Jahr zur Verfügung.