Quantcast
Channel: manage it
Viewing all 15792 articles
Browse latest View live

Welche Cyberattacken Unternehmen besonders fürchten müssen – Bedrohte IoT-Systeme

$
0
0

Cyberkriminelle und politisch movierte »Hacktivisten« haben dazugelernt. Mittlerweile sind sie in der Lage, innerhalb von fünf Tagen Angriffe auf neu entdeckte IT-Sicherheitslücken zu starten. IoT-Systeme (Internet of Things) werden bereits sogar innerhalb von fünf Minuten nach ihrer Inbetriebnahme attackiert. Dies sind zwei Erkenntnisse des Threat Intelligence Report des IT-Security-Spezialisten Netscout.

Für Angreifer sind IoT-Komponenten wie IP-Überwachungskameras und Smart-Home-Systeme aus mehreren Gründen interessant. So weist ein erheblicher Teil dieser Komponenten IT-Sicherheitslücken auf, über die sich Unbefugte Zugang zu solchen Systemen verschaffen können. Zum anderen gehen pro Tag etwa 7,7 Millionen neue IoT-Systeme online. Dadurch erhöhen sich die Chancen für Cyberkriminelle, solche Komponenten zu »kapern«.

DDos-Angriffe nehmen zu. Ferngesteuerte IoT-Systeme, aber auch Smartphones und Rechner kommen beispielsweise bei Distributed-Denial-of-Service-Angriffen (DDoS) zum Einsatz. Die Systeme werden dazu in Bot Nets integriert. Laut dem Report von Netscout nahm die Zahl von DDoS-Attacken im ersten Halbjahr im Vergleich zu 2018 um 39 Prozent zu. Vor allem Angriffe, bei denen eine Netzwerkbandbreite von 100 bis 400 Gigabit pro Sekunde zum Einsatz kommt, legten zu – um 76 Prozent. Das Ziel solcher Aktivitäten ist, Web-Services, Online-Shops und Web-Sites von Unternehmen und Organisationen mit Anfragen zu überschwemmen und zu blockieren. 

 

Im Vergleich zum ersten Halbjahr 2018 nahm die Zahl der DDoS-Attacken deutlich zu. Das gilt vor allem für Angriffe mit Bandbreiten zwischen 100 und 400 GBit/s.

 

Ein Teil der Angreifer will auf diese Weise Firmen zur Zahlung von »Lösegeld« zwingen. Staats-Hacker und Aktivisten wiederum legen mithilfe von DDoS-Attacken die Web-Seiten missliebiger Organisationen lahm. Dass sich DDoS-Attacken zu einem immer größeren Problem entwickeln, zeigen zwei Beispiele vom September 2019: Ein solcher Angriffe legte Wikipedia lahm. In manchen Regionen konnten Nutzer neun Stunden lang nicht auf das Online-Lexikon zugreifen. Einen Tag später traf es das populäre Online-Game World of Warcraft Classic: Die Plattform war für Online-Gamer zeitweise nicht mehr zugänglich.

Firewalls keine Sicherheitsgarantie. Nach Erkenntnissen von Netscout könnte sich die Situation noch erheblich verschärfen. Denn es sind bereits »Proofs of Concept« (POCs) von Attacken auf IoT-Systeme aufgetaucht, die hinter Firewalls platziert sind. Sollten solche Angriffsverfahren zum Einsatz kommen, sind 20 Mal mehr IoT-Komponenten bedroht als bislang. Denn der Löwenanteil dieser Systeme ist nicht direkt mit dem Internet verbunden, sondern wird von Firewalls geschützt.

Damit Cyberangriffe keine Wirkung zeigen, sollten Unternehmen in erster Linie folgende Maßnahmen ergreifen:

  • Alle IT-Systeme und entsprechenden Services innerhalb abgesicherter Zonen (Perimeter) platzieren. Dies sind Virtual Private LANs (VLANs), die durch Firewall-Systeme abgeschirmt sind.
  • Den Zugang zu allen IT-Diensten auf das unbedingt notwendige Maß beschränken. Das schränkt den Spielraum für Hacker ein.
  • Von den Lieferanten von IoT-Komponenten, IT- und Kommunikationssystemen verlangen, dass diese strikte Sicherheitsvorgaben einhalten. Zusätzlich sollten Unternehmen solche Systeme dennoch als potenzielle Einfallstore für Angreifer betrachten.
  • Regemäßig alle Systeme im Netzwerk auf Sicherheitsschwachstellen hin überprüfen und solche Lücken umgehend schließen. Ist das nicht möglich, etwa weil ein Hersteller keine Patches oder neue Firmware bereitstellt, sollten solche Systeme isoliert werden.


Kirill Kasavchenko,
Principal Security Technologist
bei Netscout
Illustration: © Sergey Nivens/shutterstock.com

 

567 Artikel zu „Cyberattacke „

Mehr als die Hälfte der deutschen Unternehmen ist unzureichend auf Cyberattacken vorbereitet

63 Prozent der deutschen Unternehmen glauben, dass Angreifer ihre Netzwerke problemlos infiltrieren können. Ein Grund dafür ist vielfach das Fehlen einer durchgängigen Privileged-Access-Security-Strategie.   Der aktuelle »CyberArk Global Advanced Threat Landscape 2019 Report« hat ergeben, dass weniger als die Hälfte der deutschen Unternehmen eine Privileged-Access-Security-Strategie im Umfeld von DevOps, Internet of Things (IoT), Robotic Process…

Angriffsforensik, das Post Mortem von Cyberattacken

Blinde Flecken in der digitalen Verteidigung werden von den Cyberkriminellen dankend ausgenutzt. EPP- und EDR-Lösungen können IT- und Sicherheitsteams helfen diese Sicherheitslücken zu identifizieren. Wenn Cyberangriffe die Sicherheit von Endgeräten umgehen, kann es oft Monate dauern, bis Unternehmen die Schwachstelle entdecken. Unternehmen suchen deshalb nach Möglichkeiten, ihre Endgerätesicherheit zu modernisieren und ihre Fähigkeit zu verbessern,…

Cyberattacken: Wo Hacker angreifen

2016 zielten laut Kaspersky nur 16 Prozent aller Cyberattacken auf Microsoft Office. Zwei Jahre später hat sich der Anteil der Angriffe auf 70 Prozent vervielfacht. Verantwortlich für den Anstieg sollen eine Vielzahl sogenannter Zero Day Exploits sein. Das sind Sicherheitslücken, die am selben Tag erfolgen, an dem die hierbei ausgenutzte Schwachstelle in der entsprechenden Software…

Checkliste: So sollten Unternehmen im Fall einer Cyberattacke kommunizieren

Ein Fragenkatalog hilft dabei, schnelle und zielgerichtete Reaktionen auf erfolgreiche Cyberangriffe vorzubereiten. Die Wahrscheinlichkeit für Unternehmen, Opfer einer Cyberattacke zu werden, ist so hoch wie nie, denn mit ihren modernen Angriffsmethoden sind Hacker immer häufiger erfolgreich. Deshalb genügt es nicht länger, nur Cyber-Security-Maßnahmen zu implementieren. Es gilt, sich auch für das oft Unvermeidbare zu rüsten:…

Durchschnittlicher Schaden pro erfolgreicher Cyberattacke über 1 Million Euro

Erfolgreiche Cyberattacken auf Unternehmen richten im Durchschnitt einen Schaden in Höhe von jeweils 1 Million Euro an. Dies ist die Schätzung von 790 IT-Führungskräften aus aller Welt, die Radware für seinen nun veröffentlichten Global Application and Network Security Report 2018-2019 befragt hat [1]. Sie basiert auf realen Vorfällen und deren Folgen. Unternehmen, die den Schaden…

Cyberattacken in 2019: Illegales Cryptomining, Business E-Mail Compromise und Makros

Wenn es um realistische Prognosen für das neue Jahr in Sachen Cybersicherheit geht, ist nach Meinung von Palo Alto Networks davon auszugehen, dass bestimmte Entwicklungen aus 2018 weiter an Bedeutung gewinnen werden. Im Jahr 2019 erwarten die Spezialisten im Wesentlichen drei Varianten von Cyberangriffen:   Weitere Angriffe mit dem Ziel des Cryptocurrency Mining Ende letzten…

Schwerwiegende Cyberattacke in Deutschland – Menschliche IT-Sicherheitsteams sind zunehmend überfordert

Die weitreichende Cyberattacke auf Politiker, Journalisten und Prominente in Deutschland schlägt international hohe Wellen. Noch ist wenig über die Hintergründe bekannt, aber der Schaden scheint enorm zu sein.   Gérard Bauer, VP EMEA bei Vectra, Experte für KI-basierte Cybersicherheit (künstliche Intelligenz), nimmt Stellung zum Status Quo:   »Für ein Land, in dem die Privatsphäre des…

Das waren die Trends bei Cyberattacken 2018

Die Anzahl destruktiver Cyberangriffe hat auch in 2018 weiter zugenommen. Kriminelle 4-Gruppen haben ihre Effektivität erhöht, agieren frei von geographischen Gegebenheiten und quer durch alle Industrien. Sie sind unermüdlich auf der Suche nach Lücken in der IT-Infrastruktur von Organisationen. Und wo Tore offen stehen, machen sie von der Chance Gebrauch. Ihre Ziele sind dabei geopolitischer…

Unerkannte Cyberattacken kosten Finanzdienstleister 806.350 Euro im Jahr – und die Lage verschlimmert sich noch

Deutlicher Kostenanstieg von 57 Prozent durch Cyber-Angriffe in den vergangenen zwölf Monaten. EfficientIP, Anbieter von Lösungen für Netzwerksicherheit und -automatisierung mit Spezialisierung in den Bereichen DDI (DNS-DHCP-IPAM), hat weitere Informationen aus seinem globalen DNS-Threat Report 2018 veröffentlicht. Ein zentrales Ergebnis: Finanzdienstleister sind die am stärksten von DNS-Angriffen betroffene Branche. Immer öfter starten Cyberkriminelle Attacken, um…

Cyberattacken auf deutsche Industrie werden immer mehr

  ■  8 von 10 Industrieunternehmen stehen heftiger unter Beschuss als vor zwei Jahren. ■  5 Prozent der Großunternehmen setzen für IT-Sicherheit auf künstliche Intelligenz. ■  Bitkom veröffentlicht Studienbericht zu Wirtschaftsschutz in der Industrie.   Die deutsche Industrie steht immer häufiger im Fadenkreuz von Cyberkriminellen: Für gut acht von zehn Industrieunternehmen (84 Prozent) hat die…

Deutlich mehr Cyberattacken auf ERP-Systeme

Es gibt einen signifikanten Anstieg von Cyberangriffen auf ERP-Anwendungen. Laut dem Report »ERP Application under Fire« rücken dabei vor allem ERP-Anwendungen von SAP und Oracle ins Visier der Angreifer [1]. Cyberkriminelle, Hacktivisten aber auch staatlich gesteuerte Akteure nutzen verstärkt bekannte Schwachstellen, um hochwertige Assets wie SAP HANA zu attackieren und Distributed-Denial-of-Service-Angriffe zu starten. Allein SAP…

Cyberattacken der 5. Generation – Sicherheitsinfrastruktur vieler Unternehmen ist veraltet

Herkömmliche Sicherheitstechnologien entdecken Attacken erst, nachdem diese bereits Schaden angerichtet haben. 97 Prozent der Unternehmen und Organisationen sind überzeugt, auf Cyberangriffe der Gen V nicht vorbereitet zu sein. Mit welchen Herausforderungen haben die IT-Sicherheits-experten derzeit weltweit zu kämpfen?

Ein Jahr nach WannaCry: Deutsche Unternehmen unzureichend gegen Ransomware und Cyberattacken geschützt

46 Prozent aller Befragten halten ihr Unternehmen für stärker gefährdet als vor einem Jahr. Am 12. Mai war es genau ein Jahr her, dass auf vielen Computer-Bildschirmen nichts mehr ging: Die Ransomware WannaCry hatte weltweit zugeschlagen und viele Systeme lahmgelegt. In Deutschland waren laut einer aktuellen Umfrage des Cybersecurity-Unternehmens Tanium mit 31 Prozent knapp ein…

Cyberattacken auf IT-Infrastrukturen – »Wir sind schon kompromittiert«-Mentalität erforderlich

Am Montag erklärten das US-Heimatschutzministerium, das FBI und das britische National Cyber Security Centre, dass mit Unterstützung der russischen Regierung gezielt westliche IT-Infrastrukturen gehackt werden. Ziele der Hacker seien Spionage, der Diebstahl geistigen Eigentums und die Vorbereitung zukünftiger Aktionen.   Gérard Bauer, Vice President EMEA bei Vectra – eine Experte für künstliche Intelligenz im Zusammenhang…


Sichere Cloud- und Rechenzentrumsdienstleistungen für die Automobilindustrie

$
0
0

Die noris network AG, Betreiber von Hochsicherheitsrechenzentren und PaaS-Provider, hat ihr TISAX-Zertifikat in einem Überwachungsaudit von der TÜV Rheinland i-sec GmbH prüfen und bestätigen lassen. TISAX (Trusted Information Security Assessment Exchange) dient einer unternehmensübergreifenden Anerkennung von Assessments der Informationssicherheit in der Automobilindustrie und schafft hierfür einen gemeinsamen Prüf- und Austauschmechanismus. Automobilhersteller und -zulieferer haben durch das TISAX-Zertifikat die Gewissheit, dass noris network alle Bedingungen erfüllt, die der VDA Arbeitskreis Informationssicherheit für VDA-Mitglieder und deren Zulieferer definiert hat.

»Mit unseren Zertifizierungen nach ISO 27001 auf Basis von IT-Grundschutz des BSI, ISO/IEC 20000-1 und EN 50600, um nur einige zu nennen, beweisen wir das hohe Sicherheitsniveau unseres Unternehmens und unserer Dienstleistungen. Darüber hinaus lassen wir auch Audits für branchenspezifische Standards wie PCI-DSS oder eben TISAX durchführen. Unsere Kunden sollen möglichst wenig Aufwand mit eigenen Zertifizierungen haben und – wie bei der TISAX-Zertifizierung – sofort erkennen, dass wir die Standards und speziellen Anforderungen ihrer Branche kennen und vollständig erfüllen«, erklärt Joachim Astel, Vorstand bei der noris network AG.

 

noris network – Wachstumstreiber Cloud-Migration

Spätestens seit Bau und Eröffnung ihres innovativen Rechenzentrums in München-Aschheim mit 3.200 m2 IT-Fläche zählt noris network zu den Topadressen in der deutschen Rechenzentrumsszene. Wir sprachen mit Vorstand (Chief Operating Officer) Jürgen Städing über das Jahr 2017 und künftige Entwicklungen.

 

Herr Städing, wie ist das Jahr 2017 für die noris network gelaufen?

Wir blicken auf ein ebenso arbeitsreiches wie erfolgreiches Jahr zurück. Wir haben beim Umsatz über 50 Prozent zugelegt und zählen aktuell über 270 Mitarbeiterinnen und Mitarbeiter, knapp 90 Leute mehr als Anfang 2017. Das Highlight 2017 war sicherlich die offizielle Eröffnung unseres neuen Rechenzentrums in München-Aschheim. Wir freuen uns über neue große Kunden zum Beispiel aus der Finanzdienstleistungsbranche und dem öffentlichen Sektor, für die unsere Serviceleistungen an allen Standorten optimal geeignet sind. Außerdem haben wir mit unserem Rechzentrum in Aschheim langjährigen Kunden, wie Deutsche Post DHL Group, Teambank AG, Firmengruppe Max Bögl, die nötigen Expansionsmöglichkeiten geschaffen.

noris network wächst bereits seit Jahren stärker als der Branchenschnitt. Wie erklären Sie sich diese Erfolge?

Das hat verschiedene Gründe. Ein Punkt ist aber sicherlich, dass wir bei unseren Angeboten – egal ob RZ-Infrastruktur, Projektmanagement oder Dienstleistungen – extrem auf Qualität achten. So haben wir mit dem RZ in Aschheim neue Maßstäbe bei Energieeffizienz, Flexibilität und Sicherheit gesetzt. Auch die Zahl und Vielfalt unserer Zertifizierungen zeigt das deutlich. Was mich am meisten freut: Ein großer Teil unseres Wachstums kommt aus neuen, teilweise sehr anspruchsvollen Projekten mit bestehenden Kunden. Für mich ein Zeichen, dass wir dieses Qualitätsversprechen für Kunden erlebbar einlösen. Und natürlich wird mit dem Wachstum auch unser Mut zum kalkulierten Risiko belohnt: Nicht jeder Dienstleister unserer Größe wagt es, einen RZ-Bau wie in Aschheim zu stemmen.

Wie wollen Sie das Wachstum in den kommenden Jahren sicherstellen? Welchen Einfluss werden Cloud-Angebote haben?

Die IT-Abteilungen der Unternehmen befinden sich in einer sehr spannenden Phase. Sie müssen das laufende Geschäft zuverlässig unterstützen und gleichzeitig die Migration in die Cloud vorantreiben. Ein zeitweises Nebeneinander von klassicher Enterprise-IT und Cloud-Lösungen erfordert das passende Augenmaß für die richtige Gewichtung. Außerdem gibt es neue Compliance- und Sicherheitsanforderungen. Ohne IT-Dienstleister, die flexibel auf diese Anforderungen reagieren, ist das für die wenigsten Unternehmen zu schaffen. Hinzu kommt: Entwicklung und Umsetzung von Migrationsplänen erfordern viel Erfahrung und spezielle Kompetenzen. Vielen Unternehmen fehlen die IT-Spezialisten, die so was können. Genau hier positionieren wir uns. Als qualitätsbewusster Migrationspartner, der mit seinen Dienstleistungen umfassendes Know-how und leistungsstarke Infrastrukturen für beide Welten bereitstellt.

Wie sieht das konkret aus?

Sie können das sogar in unseren Rechenzentren sehen. Während wir die Flächen im Erdgeschoss für die klassische IT unserer Kunden nutzen, bauen wir in den großzügigen Deckengeschossen unsere Cloud-on-Top-Hardware auf. Auf dieser Hardware implementieren wir Private-Cloud-Lösungen auf OpenStack-Basis für unsere Kunden. Wir mieten Cloud-Kapazitäten also nicht, sondern haben diese im eigenen Haus. Das macht uns und unsere Kunden deutlich flexibler.

Ein anderes Beispiel aus der Organisation sind unsere DevOps-Teams, die für unsere Kunden Tool-Ketten für das Continuous Deployment aufbauen. So ergeben sich sehr spezifische Lösungen für unsere Kunden. Das Beispiel eines Anbieters für Loyalty-Programme: Hier hosten und betreiben wir große Teile der Hardware mit Oracle-Datenbanken, vielen dedizierten und virtualisierten Servern und übernehmen Teile des Applikationsbetriebs. Gleichzeitig betreibt dieser Kunde Middleware auf unserer Cloud-Plattform und entwickelt erste Cloud-Anwendungen. Dieses Nebeneinander wird typisch für die Unternehmens-IT. Wir wollen hier alles aus einer Hand anbieten – von der Hardware und dem Applikationsbetrieb in unseren Rechenzentren über die Migrations-Tools bis hin zu Projekt-management und DevOps.


www.noris.de

 

Bild: © Noris network AG, shutterstock.com

 

Genickbruch Datenmanagement – Schutz und Sicherheit im Rechenzentrum

$
0
0

Professionelle Rechenzentren bieten nicht nur die Möglichkeit, gespeicherte Daten in mehrfacher Ausführung an geografisch getrennten Orten zu lagern, sondern übernehmen beim Managed Backup sogar jegliches Datenmanagement.

Egal ob infolge von Softwarefehlern, menschlichem Versagen oder einem Hackerangriff, Gründe für einen möglichen Datenverlust in Unternehmen sind vielfältig. Doch noch immer realisieren viele nicht die Gefahr eines Datenausfalls oder -verlustes. Der IT-Sicherheitsspezialist Datarecovery aus Leipzig hat Ende 2018 in einer Studie herausgefunden, dass 29 Prozent der Unternehmen ihre Daten nicht regelmäßig sichern. Fast genauso erschreckend ist die Kenntnis, dass 15 Prozent der Unternehmen, die Backups erstellen, dies ausschließlich lokal tun. So besteht bei einem örtlichen Ausfall weiterhin das Risiko eines Gesamtverlustes der Daten. »Dabei kann es jeden treffen: Laut einer Gartner-Studie kommt es bei 25 Prozent der Computernutzer weltweit zu einem Datenverlust infolge eines Systemausfalls oder aufgrund von äußeren Faktoren, wie einem Brand, Diebstahl oder Ähnlichem. Besteht dann kein wirksamer Notfallplan, kommt es zu Ausfallzeiten und hohen Kosten«, bemerkt Torben Belz, Geschäftsführer der PLUTEX GmbH.

 

 

Daten wirksam sichern. Zunächst gilt es darüber nachzudenken, in welchen zeitlichen Abständen eine Datensicherung erfolgen soll. Bei sensiblen Daten empfiehlt sich ein tägliches, automatisiertes Backup. »Besonders für Unternehmen, die mit sensiblen Daten arbeiten, empfiehlt sich die Datenspeicherung auf einem externen Backup-System, das an einem anderen Standort lokalisiert ist. Auch die Speicherung des Backups auf speziell dafür entwickelter Storage-Hardware, wie beispielsweise Magnetbändern ist sinnvoll«, erklärt Belz. Heutzutage spielt auch das Speichern in Clouds eine große Rolle: Backups lagern dabei via verschlüsselten Netzwerkverbindungen und Zugangs- und Berechtigungssystem auf Server- und Storage-Systemen von professionellen Anbietern.

Professionelle Datensicherung. Unternehmen verfügen häufig nicht über die nötigen Ressourcen und räumlichen Möglichkeiten für eine umfassende Lagerung und Sicherung. Daher empfiehlt sich die Auslagerung an einen externen Dienstleister. »Professionelle Rechenzentren, wie PLUTEX, bieten häufig nicht nur die Möglichkeit, gespeicherte Daten in mehrfacher Ausführung an geografisch getrennten Orten zu lagern, sondern übernehmen beim Managed Backup sogar jegliches Datenmanagement«, so Belz. So konzentrieren sich Unternehmer auf ihr Kerngeschäft und müssen nicht in Storage-Hardware und den Aufbau von internem Know-how investieren. Darüber hinaus bieten Rechenzentren immer den neuesten Stand der Technik, verfügen über reichlich Speicherkapazitäten und eine hohe Standortsicherheit. »Unsere Anlage wird rund um die Uhr überwacht und durch strenge Zugangskontrollen geschützt. Zudem gibt es einen Bereitschaftsdienst, bestehend aus zwei Mitarbeitern, die jegliche Projekte des Kunden kennen. Sie verfügen innerhalb kürzester Zeit über die nötigen Mittel, um im Notfall eingreifen zu können«, ergänzt Belz. Professionelle Managed Service Provider können auch sofort auf alle Eventualitäten wie Stromausfall oder Brand reagieren. Unternehmern steht außerdem ein Bereitschaftsteam zur Verfügung, das den Betrieb der betroffenen Systeme schnellstmöglich wiederherstellt.   


Weitere Informationen unter www.plutex.de

 

Illustration: © Paolo De Gasperis/shutterstock.com

 

223 Artikel zu „Datensicherung“

RPO, RTO und Backup verstehen – Kennzahlen und Kriterien von Datensicherung

Da Unternehmen vermehrt auf geschäftskritische IT-Dienste angewiesen sind, sind Infrastruktur und Anwendungen nach Meinung von Rubrik zu wichtigen strategischen Imperativen geworden. Der junge Anbieter von Cloud Data Management fordert mehr Aufklärung.   »Ausfallzeiten und Datenverluste können enorme geschäftliche und finanzielle Auswirkungen haben, die mit einer effektiven Datensicherungsstrategie zwingend minimiert werden müssen«, erklärt Roland Stritt, Director…

D2D2T hat ausgedient: Flash-to-Flash-to-Cloud ist das neue Datensicherungsmodell

Auch wenn in den Köpfen vieler IT-Verantwortlicher aktuell noch Disk und Tape die dominierenden Medien rund um die Datensicherung – also unter anderem Backup – sind, so erwartet Pure Storage für die Zukunft hier einen Wandel hin zu neuen Speichermedien und Modellen. Konkret bedeutet dies: Flash und Cloud.   »In den letzten zehn Jahren gab…

Weiterentwicklung der Datensicherungsstrategie mittels APIs – »API first« beim Data Management

Die Art und Weise, wie Daten gespeichert, verwaltet und wiederhergestellt werden, zu ändern, ist ein Muss, um in der heutigen vernetzten Welt Geschäfte und Prozesse voranzutreiben. Auf herkömmliche Weise war bei klassischen Lösungen für Data Management die Verwaltung von Daten über GUI-Schnittstellen und in einigen Fällen über nicht sehr gut dokumentierte Kommandozeilen-Tools möglich. Da hier…

Unternehmen sehen Verantwortung für Datensicherung, Datenschutz und Compliance allein bei Cloud Service Providern

Cloud first dominiert die IT-Strategien: Organisationen investieren ein Fünftel ihres IT-Budgets der nächsten zwei Jahre in die Cloud.    Die Mehrheit der befragten Unternehmen verfolgt eine Cloud-First-Strategie, wenn sie neue Anwendungen aufsetzen oder Workloads bearbeiten wollen. Nur ein Prozent der Firmen wird die Cloud in den kommenden zwei Jahren nicht einsetzen. In Deutschland sehen sogar…

Schlankere Datensicherung in der Cloud

Druva Phoenix kombiniert Backup, Archivierung und Disaster Recovery Die Druva Deutschland GmbH baut ihre strategische Präsenz und Investitionstätigkeit in der DACH-Region mit einem Cloud-basierten Lösungsportfolio weiter aus. Mit einer All-in-One-Datenschutzlösung für Backup, Disaster Recovery und Langzeitarchivierung verschlankt Druva den Administrationsaufwand und speichert die Daten aller IT-Assets im Unternehmen — von klassischen Servern bis zu mobilen…

Kosten für Datensicherung und Anwendungsentwicklung spürbar senken

Servervirtualisierung und Netzwerkvirtualisierung sind zwei bekannte und vielfach bewährte Technologien. In den Anfangszeiten schien die praktische Umsetzung noch abwegig, aber nachdem man die Vorteile erkannte, sind sie alltäglich geworden in den IT-Abteilungen. Jetzt ist die Datenvirtualisierung, genauer, die Virtualisierung von Datenkopien an der Reihe. Actifio sieht in diesem Ansatz großes Potenzial zur Kostensenkung bei der…

Produktive KI-Services – So setzen Unternehmen KI erfolgreich ein

$
0
0

Künstliche Intelligenz, Machine Learning, Big Data: Viele stehen diesen Themen skeptisch gegenüber. Dabei kann KI die Effizienz und die Arbeitsqualität steigern. Sie sollte darum Teil der Digitalisierungsstrategie sein.

Studien zeigen: Immer mehr Unternehmen erkennen die Vorteile KI-basierter Lösungen [1]. Dennoch herrscht rund um die Verwendung von KI noch Unsicherheit. Zum einen ist nicht klar, wie sich eine KI zielgerichtet integrieren und implementieren lässt. Zum anderen wissen viele Unternehmen nicht, wie genau sie von KI profitieren können. 

Ziele definieren und Daten sammeln. Die aktuell verfügbare Art von KI bezeichnet man als »schwache« KI. Sie kann nur definierte Aufgaben lösen. Eine »starke« KI, die jedoch noch nicht entwickelt ist, würde weit darüber hinausgehen. Noch benötigen KI-Systeme immer konkrete Ziele, die Unternehmen vorgeben müssen. Darum sollten sie zunächst analysieren, welche Prozesse sie mithilfe von KI effizienter gestalten könnten. Dafür braucht es üblicherweise Unmengen an Daten. Diese erhalten Unternehmen, indem sie alle relevanten Informationen rund um ihre Kerngeschäftsprozesse zusammentragen. Dafür braucht es sowohl Zeit als auch (technische) Investitionen, da alle Daten erfassende Systeme zu integrieren sind. Alternativ können sie die Daten bedarfsgerecht erheben, also je nach Anwendungsfall oder Geschäftsmodell. Anhand dieser Daten können sie dann überprüfen, ob sie für den spezifischen Case ausreichend sind.

Voice Commerce. Im Handel gibt es viele Möglichkeiten, von KI zu profitieren. Sprachassistenten wie Amazon Echo, Google Home oder Apples Home-Pod sind in den Haushalten angekommen. Nutzer verwenden sie unter anderem, um per Sprachbefehl komfortabel einzukaufen. Die digitalen Butler verstehen selbst komplexe Anfragen wie »Finde eine farblich passende Jacke mit schmal geschnittener Taille, die zu T-Shirt A der Marke C passt«. Nutzer können die passende Jacke dann einfach per Sprachbefehl bestellen – KI macht es möglich. KI-Algorithmen arbeiten dabei mehrstufig: Im ersten Schritt wandelt das System Audiosignale in Phoneme um – die kleinsten bedeutungsunterscheidenden sprachlichen Einheiten, aus denen unsere Wörter und Sätze entstehen. Die Logik ermittelt anschließend, was sich der Nutzer wünscht, und wandelt seine Anfrage in textbasierte Befehle an das System-Backend um. Dies geschieht meist durch den Aufruf von Webservices. Anschließend wird das Ergebnis mittels Text-to-Speech-Algorithmen in Sprache umgewandelt und an den Nutzer übertragen. Damit hat der Handel einen weiteren attraktiven Verkaufskanal.

Metadaten für Bild- und Videodateien automatisch erzeugen. Auch im Medienbereich ist KI längst angekommen, etwa bei der Metadaten-Erzeugung. Bewegtbilder spielen eine immer größere Rolle. Doch die immer größere Datenflut ist für Journalisten und Produzenten kaum mehr manuell zu händeln. Dabei müssen sie Videosequenzen mitunter sehr schnell finden. Dies gelingt am einfachsten über Metadaten, also Inhaltsinformationen, die Videos und Bildern zugeordnet sind. Je besser die Metadaten verschlagwortet sind (Tagging), desto einfacher sind sie auffindbar. Wenige Metadaten lassen sich noch manuell taggen. Aber TV-Sendern, die Millionen Bilddaten verwalten, ist das nicht mehr möglich. KI kann Videodateien analysieren und automatisch mit Metadaten versehen. Sie erkennt bekannte Personen, Firmenlogos, Städte sowie Gebäude und hinterlegt diese Informationen in den Metadaten. So sind Video- oder Bilddateien schnell auffindbar.

 

 

KI-Projekte realisieren. Die beiden Beispiele zeigen: KI-Projekte sind sehr unterschiedlich und individuell. Daher empfiehlt sich eine schrittweise Einführung. In der Praxis hat sich ein vierstufiger Prozess bewährt:

1. Use Case mit dem größten Mehrwert identifizieren.
Im Rahmen einer Ist-Analyse wird überprüft, welche Grundlagen für den KI-Einsatz zu schaffen sind. Inwieweit wird Big Data bereits verwendet? Welches Know-how gibt es bezüglich KI? Sind besondere Herausforderungen zu bewältigen? In der Regel erarbeiten Unternehmen diese Fragen gemeinsam mit einem Dienstleister. Aus den Resultaten können sie ein Use-Case-Portfolio ableiten, das potenzielle Einsatzmöglichkeiten von KI nach Nutzen und Aufwand priorisiert. Die vielversprechendsten Use Cases sind dann weiter zu analysieren.

2. Von der Idee zum Prototyp.
Anschließend wird ein Konzept zur Vorgehensweise entwickelt, das die zügige Entwicklung eines Prototyps gestattet. Dafür sind Ziele und Anforderungen detailliert aufzubereiten. Eine standardisierte Entwicklungsumgebung erlaubt, Störfaktoren zu beseitigen und die Entwicklung schnell abzuschließen. Dank eines iterativen Vorgehens und Benutzerfeedback kann binnen kurzer Zeit ein KI-Prototyp entstehen, der mit Echtdaten arbeitet. Daraus lässt sich ableiten, ob die gewünschten Effekte eintreten und die definierten Ziele erreichbar sind.

3. Vom Prototyp zum produktiven KI-Service.
Aus dem Prototyp lässt sich anschließend ein sogenanntes Minimum Viable Product (MVP) erstellen. Die Datenbasis und weitere Funktionalitäten werden iterativ erweitert. Für eine reibungslose Integration in die Systemumgebung sorgen kontinuierliche Funktions-, Last- und Integrationstests. Im Skalierungsplan ist festzulegen, wie aus dem MVP ein skalierender KI-Service wird. So müssen Unternehmen etwa die zukünftige Produktivumgebung, Einflussfaktoren und Schnittstellen des KI-Services analysieren und berücksichtigen. Damit entsteht schließlich ein produktiver KI-Service, der sich in bestehende Anwendungen und Prozesse integrieren lässt.

4. Stabiler Betrieb und Verbesserungen.
Für den Betrieb und das Monitoring ist es ratsam, mit einem professionellen Partner zusammenzuarbeiten, der das Unternehmen mit umfassenden Managed Artifical Intelligence Services unterstützt. Vor allem bei geschäftskritischen Einsätzen ist ein 24/7-Monitoring Pflicht. Zudem sollte die Qualität des KI-Algorithmus durch ein stetiges Re-Training gesichert sein. Und die Mitarbeiter im ITIL-konformen Service-Management übernehmen alle Routinetätigkeiten, die für einen reibungslosen Betrieb notwendig sind. 

KI ist also keine Zukunftsmusik mehr, sondern gelebte Realität. Wer sich heute nicht mit den technologischen Möglichkeiten beschäftigt, wird zukünftig das Nachsehen haben. Es ist jetzt an der Zeit, KI einzusetzen.



Marcus Metzner, Chief Marketing Officer bei Arvato Systems, ist verantwortlich für die Marketing-, PR- und Kommunikationsthemen von Arvato Systems. Daneben engagiert er sich unter anderem im Beirat der BITKOM Schulinitiative »erlebe IT« und als Jurymitglied der internationalen AIB Media Excellence Awards.
[1] https://www.dfki.de/fileadmin/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf

 

Illustration: © Margerita Steshnikova, patrice6000/shutterstock.com

 

2840 Artikel zu „KI Service“

Field Service Management 2020: Von CXM über IIoT bis hin zu KI

  Maschinen und Produktionsanlagen sind zunehmend vernetzt, um eng getaktete und komplex organisierte Lieferketten am Laufen zu halten. Ein Ausfall einer Maschine kann schnell den gesamten Prozess zum Erliegen bringen und Millionenkosten verursachen. Daher muss das Field Service Management in der Lage sein, schnell und flexibel auf mögliche Ausfälle zu reagieren. Moderne Kommunikationstechnologien ermöglichen einen…

Case Study: Nearshoring-Services für Softwareanbieter von SAP-Banking-Lösungen

Transparente Mittelverwendung und Abrechnungen sowie mitarbeiterorientierte Personalpolitik fördern langfristig erfolgreiche Zusammenarbeit. iBS setzt bei Softwareentwicklung und Softwarewartung auf Ressourcen von IT-Impulse.   Die iBS, Hersteller von SAP-basierter Standardsoftware für den Bereich Banking, nutzt seit 2010 bei der Softwareentwicklung Ressourcen des Nearshoring-Dienstleisters IT-Impulse. Angesichts des Mangels an IT-Experten in den Bereichen SAP und Banking sowie eines…

10 Tipps für den Check »KI-Support im Kundenservice«

Inwiefern optimiert KI das Kundenerlebnis? Unternehmen, die darüber nachdenken, ihren Kundenservice durch KI zu optimieren, soll bei der Entscheidungsfindung geholfen werden. Mit Antworten auf zehn entscheidende Fragen aus Sicht der KI-Experten gibt parlamind, das Berliner Startup für künstliche Intelligenz im Kundenservice, jetzt KMUs und Konzernen einen kleinen Ratgeber für »KI-Support im Kundenservice« an die Hand.…

Kundenservice der Zukunft: Drei Tipps für die Suche nach dem idealen KI-Chatbot

So können Unternehmen mithilfe von smarten digitalen Assistenten das nächste Level im Kundenservice erreichen.   Künstliche Intelligenz (KI) durchdringt die technologischen Lösungsangebote für fast jeden Einsatzbereich. Mittlerweile sind KI-Anwendungen auch im Kundenservice der Unternehmen angekommen. Mithilfe von KI-Chatbots können Hersteller und Händler in Zeiten der Digitalisierung an jedem Punkt der dynamischen Customer Journey mit seinen…

KI-Lösung stärkt den Finanzbereich bei Mitsui Chemicals und ServiceMaster

Jedox, ein internationaler Softwareanbieter für Planung und Corporate Performance Management (CPM), ermöglicht dem Controlling und den Fachbereichen die einfache Nutzung von Predictive Analytics und künstlicher Intelligenz für die Gewinnung neuer Erkenntnisse aus großen Datenmengen. Die Jedox-Kunden Mitsui Chemicals Europe und ServiceMaster verzeichneten bei Pilotprojekten zur Verbesserung der Vertriebsprognose und Kundenloyalität mit der neuen integrierten KI-Lösung…

Vorteile durch KI-gestützte Verfahren im Customer Service

  Einen wirklich kundenorientierten Service kann ein Unternehmen vor allem mit Softwarelösungen auf KI-Basis sicherstellen. Mit der Nutzung von Künstlicher Intelligenz im Bereich Customer Service zielen Unternehmen darauf ab, ein optimiertes Kundenerlebnis – kanalübergreifend und in Echtzeit – zu realisieren. KI-Technologien sind vor allem ein wichtiges Hilfsmittel, um unterschiedliche Touchpoints einfach und schnell in einem…

Online-Shopping: Formjacking – Die neue unsichtbare Bedrohung im Cyberspace

Wenn Millionen Menschen online auf Schnäppchenjagd gehen, schnappt die Falle zu. Die Rede ist von der neuen unsichtbaren Bedrohung im Internet: Formjacking, auch als E-Skimming bekannt. Dabei erbeuten Hacker auf Onlineshops mit gekaperten Bezahlformularen Kreditkarten- und Bankdaten. Der ahnungslose Kunde und das betroffene Unternehmen bekommen davon erstmal gar nichts mit – alles verläuft wie gewohnt.…

Trend Radar: KI ist gewinnbringend, braucht aber einen strategischen Ansatz

Nach dem erfolgreichen KI-Start folgt jetzt die Kopfarbeit. Wie weit sind Unternehmen mit dem Einsatz von künstlicher Intelligenz? In welchen Bereichen können sie KI schon heute gewinnbringend einsetzen? Wie wichtig ist ein strategischer Ansatz?   Im Rahmen des Pega Trend Radar hat Pegasystems den Einsatz künstlicher Intelligenz (KI) in deutschen Unternehmen beleuchtet. Die Ergebnisse der…

KI-Ausblick 2020: Die 5 wichtigsten KI-Trends für Unternehmen

Künstliche Intelligenz (KI), Machine Learning und Data Analytics sind inzwischen mehr als bloße Hype-Themen – diese Technologien durchdringen verschiedenste Geschäftsbereiche und beeinflussen unseren Alltag schon heute massiv. Mit der zunehmenden Verbreitung von KI in fast allen Branchen wachsen neben den Einsatzgebieten auch die Herausforderungen. OpenText zeigt, in welche Richtung die Entwicklung geht und welche Trends…

KI mit Byte und Siegel? Eine Einschätzung zu den KI-TÜV-Plänen der Bundesregierung

  Jetzt macht Deutschland in künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde. Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht…

Mittelstand: Wie kleine und mittlere Unternehmen von KI profitieren können

Künstliche Intelligenz (KI) wird aktuell heiß diskutiert. Experten gehen davon aus, dass in dieser Technologie enormes Wachstumspotenzial liegt. Nicht nur für große Konzerne, auch für kleine und mittlere Unternehmen kann es sich lohnen, in KI zu investieren. Welche Möglichkeiten die künstliche Intelligenz Mittelständlern bei ihren Geschäftsprozessen und ihrer Wettbewerbsfähigkeit bietet, zeigt Christina Müller, Expertin von…

KI-basierte Sicherheitstools erhöhen die Komplexität, vermindern aber keine Gefahr

Klassische Sicherheitstools können nur einen Teil der Cyberangriffe verhindern, Anbieter entwickeln deshalb zunehmend KI-gestützte Tools. Allerdings bieten auch sie keine hundertprozentige Sicherheit. Nur die konsequente Isolation aller Gefahren verspricht Erfolg, meint IT-Sicherheitsanbieter Bromium. Angesichts der nach wie vor hohen Gefährdungslage nutzen Unternehmen in der IT verstärkt neue Lösungen. Im Trend liegen vor allem KI (Künstliche…

Phänomen KI – Hype oder reale Chance für Herausforderungen in der Cybersicherheit?

Die aktuelle Flut an KI-fähigen Geschäftsmodellen und KI-Angeboten sorgt vielerorts für Irritationen, das sich nicht wenige KI-Initiativen – zumindest bis dato – primär als Marketing-Stunts erweisen. Nachdem bei 40 Prozent der selbsternannten »KI-Unternehmen« in Europa entlarvt wurde, dass in ihren Lösungen KI gar nicht zum Einsatz kommt*, ist es verständlich, dass die Versprechen vieler Unternehmen…

Cyberbedrohungen 2020: Fortgeschrittene KI und intelligente Bedrohungs-Desinformation

Unternehmen die sich proaktiv vor Angriffen schützen wollen, sollten bei ihrer Security-Strategie auf Integration, fortgeschrittene KI und anwendbare Threat Intelligence setzen.   Fortinet hat die Prognosen von FortiGuard Labs zur Bedrohungslandschaft für 2020 veröffentlicht. Die Analysten von Fortinet zeigen darin Methoden, die Cyberkriminelle in der nahen Zukunft voraussichtlich einsetzen werden. Zudem verraten sie wichtige Strategien,…

Interconnection und Rechenzentren – Das digitale Tor zur Welt – Hamburgs Weg zur Smart City

$
0
0

Das Konzept »Smart City« verspricht, Städte durch vernetzte Technologien sicherer, nachhaltiger und effizienter zu machen. Viele deutsche Kommunen setzen auf dieses Konzept und arbeiten bereits heute daran, städtische Einrichtungen zu vernetzen und zu digitalisieren.

Die Smart City hält innovative Lösungsansätze für vielfältige Herausforderungen bereit, sei es im Straßenverkehr, im Energiemanagement oder dem Abfallmanagement. Technologische Grundlage ist dabei das sogenannte Internet der Dinge (»IoT«), über das Geräte, Nutzer und Anwendungen miteinander vernetzt sind und im ständigen Austausch stehen. In Deutschland zeigt die Digitalstadt Hamburg exemplarisch, welche Vorteile und Herausforderungen mit der Smart City verbunden sind und wie Partner beim Aufbau der nötigen digitalen Infrastrukturen helfen können.

Digitalstadt Hamburg. Als »Tor zur Welt« hat Hamburg seit jeher von Vernetzung und Austausch profitiert. Nun möchte die Stadt das Erfolgsrezept in Wirtschaft und Verwaltung auch in das digitale Zeitalter übertragen. Wie der aktuelle Smart City Index des Verbands Bitkom zeigt, belegt Hamburg im Index derzeit mit 79,5 von 100 möglichen Punkten den ersten Platz als digitalste Stadt Deutschlands. Schon 2015 verabschiedete der Hamburger Senat die Strategie »Digitale Stadt«, deren Ziel es ist, Hamburg bundes- und europaweit als führenden Digitalstandort zu etablieren.

Hamburg spielt in der Digitalisierung Deutschlands eine entscheidende Rolle. Dazu trägt eine zunehmend digitalisierte Wirtschaft mit E-Commerce-Unternehmen, Online-Plattformen und innovativen Industrieunternehmen bei. Zudem fördert die Stadt selbst zahlreiche Zukunftsprojekte wie den smartPort, also einen Hafen, in dem Straßen, Schienen- und Wasserwege miteinander vernetzt werden, um den Waren- und Verkehrsfluss effizienter zu gestalten. 

Auch wenn Hamburg in zahlreichen Pilotprojekten bereits erste Erfolge vermeldet, kann künftig noch großes Potenzial erschlossen werden. Eine Umfrage der Handelskammer Hamburg vermittelt einen Eindruck, welche Herausforderungen Unternehmen bei der Digitalisierung wahrnehmen: So sehen je fast 40 % Anforderungen an die IT-Sicherheit und hohe Investitionskosten als Herausforderung. Über 30 % sehen fehlende technische Standards und Schnittstellen als Hindernis. Auch eine aktuelle Marktstudie von Equinix, der Global Interconnection Index, stützt diesen Befund: So gaben im Rahmen einer Umfrage mehr als die Hälfte (54 %) der befragten deutschen IT-Führungskräfte an, dass sie veraltete IT-Infrastrukturen als das größte Hindernis für eine erfolgreiche Digitalisierung sehen. 

Herausforderung Smart City. Smart City-Lösungen sind komplex und stellen hohe Anforderung an die IT-Kapazitäten einer Stadt: 

Erstens müssen Städte in der Lage sein, enorme Datenmengen in Echtzeit zu übertragen und auszuwerten, die durch Sensoren oder Bürger entstehen. Nur so kann etwa im smarten Verkehrsmanagement sichergestellt werden, dass Verkehrsströme korrekt berechnet und Staus oder Unfälle vorhergesehen und vermieden werden können.

Zweitens müssen Akteure der Smart City Daten und Informationen auf sichere und flexible Weise miteinander teilen können. Betrachtet man das intelligente Abfallmanagement, so ist eine IoT-basierte und effiziente Entsorgung nur möglich, wenn Stadtwerke, Lkws und Gebäudeverwaltungen Daten über eine zentralen Cloud-Management-Plattform austauschen können, die über die entsprechenden Analyse-Tools verfügen, um die Müllentsorgung in Echtzeit einzuleiten. 

 

Durch Interconnection umgehen Teilnehmer des digitalen Ökosystems das Internet und tauschen Daten schnell, sicher und zuverlässig untereinander aus.

 

Das Fundament: Digitale Infrastrukturen. Diese Herausforderungen können nicht im Alleingang gemeistert werden. Viel mehr sitzen Unternehmen, die Stadt und andere Partner bei der Digitalisierung alle im selben Boot. Externe Partner können künftig dabei helfen, das Fundament der Smart City bereitzustellen: Digitale Infrastrukturen, die den reibungslosen Datenaustausch zwischen verschiedenen Teilnehmern der Stadt ermöglichen. 

Eine zentrale Rolle nehmen dabei Rechenzentren ein. Moderne Rechenzentren bieten Unternehmen nicht nur zusätzlichen Speicherplatz. Viel mehr stellen sie eine neutrale Plattform bereit, über die sich die verschiedenen Akteure der Smart City miteinander vernetzen und austauschen können. Sie bilden sogenannte digitale Ökosysteme innerhalb derer sich – im Fall der Smart City – städtische Akteure wie Notrufzentralen, Stadtwerke oder Verkehrsbetriebe mit externen Unternehmen wie Automobilherstellern, Mobilitätsdienstleistern, Softwareanbietern sowie Clouds verbinden können, um Projekte gemeinsam umzusetzen. 

Diese direkte Anbindung innerhalb der Rechenzentren wird auch Interconnection genannt. Durch Interconnection umgehen Teilnehmer des digitalen Ökosystems das Internet und tauschen Daten schnell, sicher und zuverlässig untereinander aus. Im Ökosystem werden die gesammelten Daten jedes Teilnehmers der Smart City zusammengeführt, analysiert und darauf basierende Entscheidungen an die jeweiligen Geräte zurück gesendet. Auch das Skalieren von IT-Kapazitäten ist durch den Zugang zu Cloud-Providern schnell und flexibel möglich. Die erleichtert den Ausbau von Smart-City-Lösungen deutlich.

Interconnection wird auch in Zukunft ein wichtiger Treiber der Smart City sein. Eine aktuelle Umfrage von Equinix zeigt, dass Interconnection als zuverlässige und schnelle Alternative zum öffentlichen Internet in Deutschland zunehmend an Bedeutung gewinnt. So geben 35 Prozent der befragten IT-Entscheider an, dass die Umgehung des öffentlichen Internets über Interconnection für einen erfolgreichen Geschäftsbetrieb entscheidend sei. Um auch künftig Städte bei der Vernetzung und Digitalisierung zu unterstützen, erweitern Rechenzentrumsanbieter stetig ihre Präsenz in Deutschland. In Hamburg wird Equinix beispielsweise noch in diesem Jahr einen neuen Standort eröffnen. 

Rechenzentren, Netzwerk- und Cloud-Provider leisten so einen entscheidenden Beitrag bei der Bereitstellung und Verbesserung digitaler Infrastrukturen und helfen Städten wie Hamburg, die Vision der Smart City umzusetzen.



Jens-Peter Feidner,
Managing Director Germany
bei Equinix

 

Bilder: © Equinix;
Gerckens-Photo-Hamburg/shutterstock.com;
Composing: magazinemaker.de

 

199 Artikel zu „Smart City“

Smart City Index – aber wie sicher ist »smart«

Hamburg ist die smarteste Stadt Deutschlands. Die Hansestadt rangiert mit deutlichem Abstand an der Spitze des Smart City Index, den der Digitalverband Bitkom für alle 81 deutschen Großstädte heute vorgestellt hat. Hamburg erreicht 79,5 von 100 möglichen Punkten. Dahinter liegen nahezu gleichauf Karlsruhe (69,0 Punkte) und Stuttgart (68,6) auf den Plätzen 2 und 3, dicht…

Baltimore ist »Smart City ready« – wirklich?

Der aktuelle Hackerangriff auf die Stadtverwaltung Baltimore schlägt hohe Wellen. Wieder einmal zeigt sich, dass nicht gepatchte Systeme zu den größten Sicherheitsgefahren gehören. Die Herstellung einer Cyber-Security-Hygiene mit elementaren Sicherheitsmaßnahmen darf nicht am Geld scheitern, sagt NTT Security, ansonsten wird auch die Umsetzung ambitionierter Smart-Society-Ziele am Misstrauen des Bürgers scheitern. Bei der Stadtverwaltung Baltimore haben…

Smart City und SD-WAN: Wie die digitale Transformation Städte intelligenter macht

Eine flächendeckende drahtlose Konnektivität in Städten gepaart mit IoT-Technologie – diese Kombination eröffnet neue, vielfältige Möglichkeiten für die Entwicklung intelligenter Städte, sogenannter Smart Cities. In puncto Netzwerktechnologie erfordern Smart Cities einen modernen Software-definierten Ansatz für Wide Area Networking, kurz: SD-WAN. WANs für intelligente Städte müssen mehr denn je agil, geradezu elastisch sein. Kommunen jeglicher Größe…

Sicherheit in der »Smart City« – worauf es ankommt

Technologien verändern unseren Alltag, das zeigt ein kurzer Blick auf die Kommunikation: Vom Anruf per Festnetztelefon, hin zu WhatsApp, Mail und vielen anderen Möglichkeiten. Dieser Wandel geht noch weiter: Smarte Geräte sind Standard und nicht nur unsere Telefone und Tablets, auch Fernseher, Kühlschränke und Heizungen kommunizieren mittlerweile über das Internet miteinander und mit uns. Die…

Smart City ist noch ein spanisches Dorf, weckt aber Interesse

Vor allem Energieeffizienz ist attraktiv. Selbstfahrende Autos, energiesparende Bauweise, künstliche Intelligenz – kaum ein Tag vergeht ohne die Verlautbarung von Neuerungen in diesen Bereichen. Fragt man jedoch in der Bevölkerung nach Smart City, herrscht meist Schweigen im Walde. Nur knapp jedem Fünften ist der Begriff geläufig. Doch was verbindet man damit? Und welche Optionen wecken…

Smart City – Die Stadt der Zukunft

Mit intelligenter IT die Lebensqualität in Großstädten verbessern. 2050 werden zwei Drittel der Weltbevölkerung in Städten leben. Daraus ergeben sich völlig neue Herausforderungen. Mehr Menschen in Städten benötigen mehr Energie. Der Ressourcenverbrauch stößt in völlig neue Dimensionen. Das Gebot der Stunde lautet: Effizienz. Nicht nur, um den Energieeinsatz aus Gründen des Klimaschutzes zu minimieren. Städte…

»Smart City« : Wien international auf Platz Eins – Dienstleistungsmarkt für Smart Cities bietet großes Potenzial

Neuer »Smart City Index« von Roland Berger analysiert erstmals systematisch die Strategien der weltweiten Großstädte. Das Ranking: Wien, Chicago und Singapur sind die Städte mit den besten Strategieansätzen. 87 untersuchte Städte: Alle zeigen Verbesserungspotenzial – meist fehlt eine ganzheitliche Sicht. Weltweiter Markt für Smart-City-Lösungen wird sich voraussichtlich von aktuell 13 auf 28 Milliarden Dollar im…

Ein Hauch von Smart City: Munich City App für die Münchner Kult(ur) Nacht

Am 11. September findet die Münchner Kult(ur) Nacht bereits zum neunten Mal statt – mit einem besonderen Special: Mit der Munich City App bekommen Besucher immer die besten Angebote und Events auf ihr Smartphone und verpassen keines der Highlights und Schnäppchen, die auf sie warten. Die Munich City App ist bei Google Play und im…

Intelligente Städte – Wie Stream Processing reale Smart-City-Projekte zum Leben erwecken kann

Die öffentliche Diskussion rund um 5G, Digitalisierung und das Internet der Dinge bringen ein weiteres Thema auf die Agenda: Dass Interesse für das Thema Smart City wächst stetig, und es wurden -zumeist außerhalb Europas – bereits einige spannende Technologieprojekte realisiert. Immer mehr Regierungen unternehmen ernsthafte Schritte zur Modernisierung ihrer Infrastruktur, um die Herausforderungen des Bevölkerungswachstums…

Studie: E-Government ist beliebtestes Smart-City-Angebot der Zukunft

Öffentliches WLAN, Car-Sharing, intelligente Straßenlaternen: Die Studie des Marktforschungsinstituts Splendid Research GmbH beschäftigt sich mit dem Themenkomplex der Smart City. Dazu haben sich im Juli 2018 insgesamt 1.522 Stadtbewohner im Alter von 18 bis 69 Jahren online geäußert. Es ging um die Nutzung, die Beliebtheit sowie die Bekanntheit der breiten Smart-City-Auswahl. Dabei unterscheidet die Studie…

Smart-City-Studie zeigt wichtige Lektionen aus 22 smarten Städten weltweit, darunter Berlin

Die Studie »The Smart City Playbook« zeigt auf, welche unterschiedlichen Ansätze Städte auf dem Weg zur »Smart City« verfolgen [1]. Das Playbook enthält darüber hinaus konkrete Orientierungshilfen für Entscheider in Form von erfolgreichen Strategien, mit denen andere Stadtverwaltungen ihre Städte smarter, sicherer und nachhaltiger machen. Die Studie wurde von Nokia in Auftrag gegeben, die Daten…

Trends 2020: Hyperautomation und Smart Contracts als Game Changer

Mit dem stetigen Voranschreiten der digitalen Transformation in der Wirtschaft haben neue Technologien zur Automatisierung und Prozessoptimierung erfolgreich Einzug in Unternehmen gehalten. Der erste Schritt ist somit vollzogen, es müssen jedoch weitere Blickwinkel miteinbezogen werden, um den Weg der digitalen Transformation weiter erfolgreich zu beschreiten. Die Gartner Group hat in ihrem Thesenpapier »Top 10 Strategic…

Smart Roads: Mehr Intelligenz und Sicherheit für die Verkehrsinfrastruktur

Materialermüdung macht den Straßen und Brücken in Deutschland zu schaffen. Gründe hierfür sind Schwingungen durch den permanenten Verkehr sowie Korrosion, ausgelöst durch Tausalze im Winter. Damit kein Unglück passiert, werden hierzulande Brücken flächendeckend überwacht und auf Schäden untersucht: Alle sechs Jahre findet eine Hauptprüfung statt und alle sechs Monate erfolgt eine Sichtprüfung. Beginnen Schäden jedoch…

Smart Community: Hälfte der Europäer will digitalen Zugang zu öffentlichen Dienstleistungen

Verbraucher erwarten die Zusammenarbeit von Service Providern und Regierungen, um die erfolgreiche Akzeptanz eines Smart-Community-Projekts zu gewährleisten.   Juniper Networks hat zusammen mit YouGov eine neue Marktforschung präsentiert [1]. Diese zeigt, dass Verbraucher Fähigkeiten wie Interoperabilität und Cybersecurity über technologische Fortschritte wie 5G, Cloud, IoT und Automatisierung bei der Verwirklichung von Smart Communities stellen. Smart…

Neueste Generation von Netzwerklösungen von Alaris – Scannen mit Mehrwert

$
0
0

Die Zeiten, in denen Papierdokumente rein zu Archivierungszwecken gescannt wurden sind vorbei. Mit modernen Scanlösungen ist nicht nur die nahtlose Einbindung von Daten in den digitalen Workflow oder Cloud-Anwendungen möglich, sondern es lassen sich ganze Prozesse abbilden beziehungsweise anstoßen.

Kodak Alaris bietet mit der Alaris INfuse Smart Connected Scanning Solution oder dem Scanner Kodak Scan Station 730EX Plus Lösungen an, die genau dafür entwickelt wurden. 

Buchhaltung per Knopfdruck. Ein perfektes Beispiel für automatisierte Prozesse liefert eine Buchhaltungsanwendung. Eingehende Rechnungen und Belege werden im Unternehmen gescannt und als voll durchsuchbares PDF im eigenen Dokumentenmanagementsystem abgelegt. Darüber hinaus erfolgt die automatische Übersendung an den Steuerberater in das entsprechende Verzeichnis. Hier generiert die Rechnung einen Buchungssatz, der nur noch geprüft werden muss.

Scannen im Kundenkontakt. Ein weiteres Beispiel ist der Einsatz einer intelligenten Scanlösung in Bankfilialen. Bei einem Kreditantrag fallen viele Papierdokumente wie Gehaltsabrechnungen, Selbstauskunft oder betriebswirtschaftliche Auswertungen an. Diese können zusammen mit dem Kreditantrag noch während des Kundengesprächs gescannt werden. Zunächst prüft die Erfassungslösung, ob die Formulare auch vollständig ausgefüllt und unterzeichnet sind. Danach werden die Daten der digitalen Kundenakte zugefügt und der zuständige Kreditsachbearbeiter wird automatisch informiert, dass ein neuer Antrag zur Bearbeitung vorliegt.

Die Einsatzszenarien sind vielfältig und mit der Kodak Scan Station 730EX Plus oder mit der Alaris INfuse Smart Connected Scanning Solution realisierbar. Für Systemintegratoren und ISVs (Independent Software Vendor) ist es ein Kinderspiel, diese automatisierten Prozesse zu programmieren.

Neue Scan Station bietet leistungsstarke Funktionen und unbegrenzte Integrationsmöglichkeiten. Die Scan Station 730EX Plus ist ein integrierter Netzwerkscanner, der die Dokumentenerfassung sicher automatisiert und es ermöglicht, Dateien direkt in Geschäftsprozesse zu scannen. Die Scan Station ist eine netzwerkfähige Lösung, die in einer Vielzahl von Kundenumgebungen eingesetzt werden kann. Sie bietet ein eingebettetes Windows 10 IoT-Enterprise-Betriebssystem und eine Netzwerkdomain-Authentifizierung für eine sichere Anmeldung. 

Die neue Scan Station eignet sich ideal für die Erfassung und erweiterte Verarbeitung wie etwa OCR, die in der Scan Station durchgeführt wird. Sie wurde speziell für Integratoren zur Erstellung benutzerdefinierter Lösungen konzipiert. Diese Anwendungen können auf den Scanner geladen werden, wodurch die Erfassungslösung erweitert wird, um den individuellen Anforderungen des Endnutzers gerecht zu werden. Das Bedienpanel ist ein 9,7 Zoll großes Touchdisplay. Hier lassen sich individuell beschriftete Button darstellen, so dass ein kompletter Prozess mit nur einem »Touch« ausgeführt wird. Die Scan Station ist gut geeignet für Umgebungen mit Kundenkontakt, in denen Multifunktionsdrucker, Peripheriescanner und PCs betriebswirtschaftlich nicht sinnvoll sind. 

Die Alaris INfuse Solution geht noch einen Schritt weiter. Die Inspiration für INfuse stammt direkt aus dem Feedback von Vertriebspartnern und Endnutzern. Lösungsanbieter benötigen eine Möglichkeit, um einen Geräte-Pool zu installieren, zu verwalten und gleichzeitig Unternehmenskunden dabei zu unterstützen, Informationen effizient und korrekt in Geschäftsanwendungen einzubinden. Um diesen Anforderungen gerecht zu werden, enthält die Alaris INfuse Solution drei Schlüsselkomponenten.

  • Partner-Softwareanwendung – Ein Lösungsanbieter (in der Regel ein ISV oder Integrator) bietet eine cloudbasierte Unternehmenslösung wie etwa die Rechnungsbearbeitung, die Verwaltung von Krankenakten oder Kundenkonten an. Diese Software oder Branchenanwendung lässt sich über die Alaris-APIs integrieren.
  • INfuse Management Software – Die INfuse Management Software bietet eine einfache Einrichtung von Anwendungsprofilen, Fernkonfiguration und Geräte-Pool-Management über eine von Alaris bereitgestellte bidirektionale API. Endnutzer scannen zur Einrichtung des Scanners einfach ein vom Partner bereitgestelltes Setup-Blatt und können den Scanner ohne Schulung sofort nutzen, was die Vorlaufkosten und laufenden Verwaltungskosten senkt.
  • INfuse AX Scanner – Ein intelligenter Netzwerkscanner, der keinen PC, keine Software oder Treiber benötigt, um Daten, Metadaten und Bilddateien präzise und sicher direkt in eine Geschäftsanwendung zu übertragen. INfuse bietet Sicherheit auf Unternehmensebene, einschließlich eines separaten Daten- und Kontrollpfades, um vertrauliche Inhalte für eine sichere Übertragung zu isolieren. 

Die INfuse Solution verbindet sich nahtlos mit einer entsprechenden Branchenlösung und ermöglicht es Kunden, Inhalte direkt in diesen Workflow einzubinden. Wenn ein Scan erfolgreich übertragen und Formularfelder validiert wurden, erhält der Endnutzer in Echtzeit eine Bestätigung und sofortige Benachrichtigungen über Ausnahmen. Das bedeutet, dass fehlende Formulare, Signaturen und andere wichtige Informationen sofort erkannt und korrigiert werden können, was Geld spart und die Produktivität der Mitarbeiter steigert. 

 

Der INfuse AX Scanner ist ein intelligenter Netzwerk­scanner, der keinen PC, keine Software oder Treiber benötigt, um Daten, Metadaten und Bilddateien präzise und sicher direkt in eine Geschäftsanwendung zu übertragen.

 

Alaris INfuse Solution automatisiert Geschäftsprozesse, indem sie die Dokumentenerfassung nahtlos mit bestehenden Geschäftssystemen und der Cloud verbinden. Das Besondere an den neuen netzwerkgebundenen Scan-Lösungen von Kodak Alaris ist, dass sie für die Individualisierung entwickelt wurden. Branchenanwendungen können implementiert werden, um dem Endkunden die Digitalisierung zu vereinfachen.

Praktische Vorteile der Datenerfassung »am Anfang«. Die Digitalisierung von Papierdokumenten erfolgt am effizientesten »am Anfang« des Prozesses, also dort, wo sie in das Unternehmen gelangen, an verteilten Standorten und im direkten Kundenkontakt. Bisher haben die zusätzlichen Kosten für Host-PCs, Bereitstellung und fortlaufenden Support die Kosten für die verteilte Datenerfassung für viele Unternehmen und Partner unerschwinglich gemacht. Als Lösungsanbieter ist es schwierig, komplex und kostspielig, Hunderte oder Tausende von Scannern beim Kunden vor Ort zu installieren und aus der Ferne zu verwalten. Die neueste Generation von Netzwerklösungen von Alaris bietet eine vereinfachte Remote-Installation, Geräteverwaltung und -aktualisierung.

Die Alaris INfuse Smart Connected Scanning Solution und die Scan Station 730EX Plus können in einer Vielzahl von Branchen und Anwendungen eingesetzt werden, darunter BPOs, Dienstleistungsunternehmen, Gesundheitswesen, Einzelhandel, Versicherungen, Personalwesen, Rechts- und Steuerberatung sowie allgemeine Büroumgebungen.


Bilder: © Kodak Alaris

 

Automatisierte Rechnungserfassung und Rechnungsbearbeitung

Die Lösung buchhalterischer Dreiecksbeziehungen. Unternehmen, deren Rechnungsprozesse komplexer sind, kommen mit Standardsoftware dann an ihre Grenzen, wenn das System mehr können muss, als im Rahmen der beleggebundenen Rechnungsprüfung Bestellungen mit Rechnungen abzugleichen. Ein Hamburger Mobilitätsservice hat in einem groß angelegten Digitalisierungsprojekt eine Vielzahl der Prozesse von Rechnungserfassung, -prüfung und -bezahlung mit einer individuellen Lösung automatisiert.…

Mehr digitale Personalakte wagen

Was Unternehmen von der Einführung digitaler Mitarbeiterdokumente abhält. Vielen Unternehmen ist die digitale Archivierung von Belegen wie Rechnungen, Lieferscheinen und Verträgen mittlerweile in Fleisch und Blut übergegangen – mit einer Ausnahme: Bei Mitarbeiterdokumenten schrecken selbst die größten Digitalisierungs-Fans davor zurück. So hat aktuell nur jeder zehnte Kunde der eks informatik eine digitale Personalakte im Einsatz.…

IT-Trends 2020: Hybrid Cloud, Predictive Data Analytics und Nachhaltigkeit bestimmen die Agenda

Zum Ende des Jahres wird es Zeit, die Technologien und Ansätze ins Auge zu fassen, die 2020 die Unternehmens-IT beeinflussen werden. Sage hat fünf Trends identifiziert, mit denen sich Entscheider und Entwickler vermehrt beschäftigen sollten, um Effizienz und Wettbewerbsstärke voranzutreiben. Hybrid Cloud, Data Analytics, DevOps, energieeffiziente Software und Security by Design sind, so Oliver Henrich,…

KPI: Kein Selbstzweck

Kennzahlensysteme (KPI) müssen sich auch im Dokumenten- und Output-Management strikt an den strategischen Unternehmenszielen orientieren – andernfalls bleiben sie wirkungslos. Kaum ein anderes Thema unterliegt so vielen Missverständnissen wie der Nutzen von Kennzahlen für die Unternehmensführung. Manche Firmen vertrauen lieber der Intuition und Erfahrung ihrer Manager als einigen »akademischen Regeln«. Andere wiederum wollen sich gar…

Automatisierung ist kein Prozess, sondern eine Entscheidung – Mut zur Veränderung

Manuelle Arbeiten zu minimieren bedeutet höhere Produktivität und auch mehr Sicherheit. Diese Erkenntnis ist nicht neu, doch in der Praxis noch nicht vollends angekommen. Mit »haben wir schon immer so gemacht«, werden viele Unternehmen im digitalen Wandel auf der Strecke bleiben. Mut zur Veränderung, ist eine Entscheidung für die Zukunft. Dabei kann eine Umstellung auf automatisierte Prozesse so einfach sein.

Auf dem Weg zur digitalen Verwaltung – Mehr Effizienz durch moderne Dokumenten­austausch­verfahren

Für Behörden und öffentliche Verwaltung ist die Digitalisierung Herausforderung und Chance zugleich. Vor allem in der Optimierung von Verwaltungsprozessen durch die Automatisierung manueller Tätigkeiten steckt großes Potenzial. Moderne Dokumentenaustauschverfahren können einen wichtigen Beitrag dazu leisten, vorausgesetzt sie erfüllen die hohen Sicherheitsanforderungen dieser Branche.

Prozessautomatisierung schafft in der Personalabteilung mehr Zeit für Kernaufgaben

Recruiting-Strategie entwerfen statt Papierakten wälzen: Was im HR-Bereich zu kurz kommt. Neue Technologien mit künstlicher Intelligenz (KI) sind in aller Munde – auch im HR-Bereich. Es wird etwa diskutiert, wie intelligente Tools beim Recruiting helfen können. In der Praxis sind allerdings die meisten Personalabteilungen längst nicht so weit. Ein Großteil der Zeit fließt immer noch…

Digitalisierung und Industrie 4.0: So startet Ihr Unternehmen erfolgreich durch

Die Digitalisierung und die Industrie 4.0 gehören aktuell zu den meist diskutierten Themen, genauso wie die Online-Casinos wie beispielsweise netbet. Jedoch ist es oft schwer, einen genauen Überblick zu bekommen. Besonders schwierig ist es, die für das eigene Unternehmen richtigen Schritte aus der Fülle an Informationen abzuleiten. In diesem Artikel verschaffen wir Ihnen einen strukturierten…

Handwerk digitalisiert zusammen mit dem Steuerberater

Die Digitalisierung der kaufmännischen Prozesse im Handwerk kommt weiter voran. Dabei setzen die Betriebe verstärkt auf ihren Steuerberater oder ihre Steuerberaterin. Das ist eines der Ergebnisse der neuen gemeinsamen Studie der DATEV eG und des handwerk magazins [1]. Demnach nutzen Betriebe, die regelmäßig etwa für die Finanzbuchführung oder Lohnabrechnung mit einer Kanzlei zusammenarbeiten, häufiger digitale…

Cashback-Aktion für Scanner der Alaris S2000 Serie

Die Digitalisierung beginnt mit dem Scannen von Papierdokumenten. Diese Erkenntnis ist nicht neu, doch noch immer ist zu viel Papier im Umlauf und Prozesse werden verzögert. Die Scanner der Alaris S2000 Serie wurden für das dezentrale Erfassen am Arbeitsplatz, in der Workgroup oder im direkten Kundenkontakt entwickelt. Nun macht Kodak Alaris die Entscheidung noch leichter…

Next Generation Document Exchange – Das digitale Einschreiben wird Realität

Würde ich heute ein Unternehmen gründen, ginge ich in die Cloud – keine Dokumente würden mehr On-Premises abgespeichert. Nun ist aber nicht jedes Unternehmen ein Start-up, das sich mit einem kommunikativen Green-Field-Ansatz die passenden digitalen Bausteine aus der Cloud für ein papierloses digitales Büro zusammenstellen kann.

DSGVO gilt auch für stoffliche Dokumente: Toxische Papiere gefährden Datenschutz

Die »Europäische Datenschutzgrundverordnung« (DSGVO) hat in Marketing-, Vertriebs- und Rechtsabteilungen von Unternehmen ein mittleres Erdbeben ausgelöst. Die Herausforderungen sind immens. Und die Uhr tickt: In wenigen Wochen tritt die DSGVO in Kraft. Die meisten Unternehmen konzentrieren sich jedoch bei der Umsetzung der neuen Verordnung auf ihre digitalen Daten. Völlig außer Acht gelassen wird dabei, dass…

Acht Tipps für produktiveres Arbeiten

Gerade in Zeiten des Fachkräftemangels ist eine hohe Produktivität entscheidend für die Zukunftssicherheit von Unternehmen. Doch viele, vor allem kleinere Firmen leiden unter Produktivitätsverlust durch administrative Aufgaben. Und jetzt verursacht auch noch die DSGVO zusätzlichen Aufwand. Rainer Downar, Executive Vice President Central Europe bei Sage, gibt Tipps, wie Unternehmen produktiver werden können. Kleine und mittlere…

Datenintegration, Datenmanagement, Datenqualität – Daten das Lebenselixier für Unternehmen

$
0
0

Alle Menschen, alle Systeme wollen und müssen zusammenarbeiten. Software. Hardware. EDI. EAI. Alles dreht sich um Datenintegration. Die Automatisierung der Datenzusammenführung ist eine mächtige Stellschraube bei der Digitalisierung des Unternehmens.

Vielschichtiger und komplexer: Das werden die Anforderungen an Führungskräfte im digitalen Zeitalter. Vor allem Führungskräfte, die Change-Manager und Leader zugleich sind, werden sehr geschätzt. Das belegt die am zweithäufigsten genannte Kompetenz, die Veränderungsfähigkeit, die von Digital Leadern erwartet wird. Zu diesem Ergebnis kommt die Metastudie des Instituts für Führungskultur im digitalen Zeitalter (IFIDZ). Vor allem das Managen von Veränderungen in Prozessen und Strukturen, Geschäftsmodellen und Geschäftsstrategien sowie das Führen selbst sind wesentliche Anforderungen. Und natürlich das Auftreten als starke Kommunikatoren. Die größte Herausforderung: Im permanenten Wandel des digitalen Zeitalters die ständigen Veränderungen mit allen Voraussetzungen und Wirkungen zu managen. 

Um die Automatisierung, als ein Teilbereich der Digitalisierung, als Chance zu begreifen, ist es wichtig, dass Führungskräfte keine Angst vor Veränderungen haben, ihren Mitarbeitern den Wandel vorleben und sich intensiv mit dieser Thematik und den Auswirkungen auf den Geschäftsalltag auseinandersetzen. 

Da die Digitalisierung vor allem auf Vernetzung und Daten basiert, ist es relevant, hier eine bestmögliche Maßnahme für Veränderungen zu ergreifen, um dann letztendlich Erkenntnisse für strategische und operative Entscheidungen im Unternehmen zu gewinnen. Aufgrund der exponentiell steigenden Menge der zur Verfügung stehenden Daten, steigen auch die Möglichkeiten, diese Daten miteinander in Beziehung zu setzen. Damit aus Lösungen, Anwendungen, Protokollen und Standards ein kommunizierendes Netzwerk entsteht, braucht man allerdings noch etwas anderes, das
die Vernetzung erst möglich macht: die Integration, die vor allem eine Integration von Daten ist. »Nachdem sich die Anforderungen stetig ändern und die Systeme sich rasant entwickeln, sind statische Einmallösungen mit eigens programmierten Schnittstellen teuer und unflexibel«, erklärt Steffen Brehme, Geschäftsführer der Lobster GmbH. 

Fast schon ein Wunderkind der Datenintegration. Die Standardsoftware Lobster_data dagegen entlastet die IT-Abteilung und ermöglicht es, bei der Vernetzung Schritt für Schritt vorzugehen, Systeme nacheinander anzubinden, Daten etappenweise zu integrieren und mit den gewonnenen Erfahrungen den Prozess zu modellieren und agil die nächsten Schritte zu planen. Mit einem einzigen Tool können Unternehmen die Einrichtung aller Schnittstellen in den Bereichen EAI, EDI, MFT und (I)IoT erledigen. »Statt Einzelfallprogrammierung setzt man bei Lobster auf flexibles Konfigurieren auf einer logisch gegliederten, intuitiv bedienbaren Oberfläche«, merkt Brehme an.

Interne Daten hier und externe Daten dort: Betrachtet man die nach innen gerichtete Enterprise Application Integration (EAI) oder den nach außen gerichteten Electronic Data Interchange (EDI), gibt es nur eine Frage: »Wer benötigt wann von wem welche Daten in welchem Format«, so Brehme. Schlussfolgerung: Irgendwer muss die Daten abholen und zu einem oder mehreren Zielen bringen und sicherstellen, dass der Datenaustausch auch funktioniert. Dies scheint bei rund 10.000 Industriestandards schier unmöglich. »Und da kommt Lobster ins Spiel: Unsere Integrationssoftware hat all diese Vorlagen hinterlegt und unterstützt alle gängigen Kommunikationsprotokolle«, freut sich Brehme. »Fast schon ein Wunderkind.« 

 

In sechs einfachen Schritten zur standardisierten Datenkonvertierung mit dem Lobster_data.

In sechs einfachen Schritten zur standardisierten Datenkonvertierung mit dem Lobster_data.

 

Die automatische Erkennung des Ausgangsformats ist kein Hindernis. Der Anwender muss lediglich festlegen, wohin die Reise geht: Einfach ein Übertragungsprotokoll auswählen, das Mapping der Eingangsdaten auf die gewünschte Zielstruktur erstellen und natürlich das Ausgabeformat der im Mapping erstellen Datenstruktur. So können selbst die Fachabteilungen Prozesse überwachen und gegebenenfalls notwendige Änderungen an der implementierten Logik selbstständig ohne die Hilfe der IT durchführen. Im Zuge der Digitalisierung müssen immer mehr Daten aus unterschiedlichsten Quellen – intern wie extern – verarbeitet werden. Um aus Big Data größtmöglichen Nutzen zu ziehen, brauchen Unternehmen eine Software wie Lobster_data, die die Daten in möglichst hohem Grad automatisiert verarbeitet und einfache Bedienbarkeit ermöglicht«, erläutert Brehme. Selbstverständlich bietet Lobster_data die Möglichkeit, aus der Masse der zur Verfügung stehenden Daten auch nur die tatsächlich benötigten, entscheidungsrelevanten zu extrahieren.

Und in der Praxis? Sie sollen eine XML-Datei liefern, die IT Ihres Partners kann Ihnen jedoch nur eine Beispieldatei aber keine XSD liefern? Durch simples Drag and Drop erzeugt Lobster_data die benötigten Strukturen. Und das ist nur einer von tausenden Konvertierungsjobs, die mit der Integrationssoftware zu lösen sind. Engpässe? Gibt es im Lobster_data nicht. Die Auslastungsspitzen lassen sich durch grafische Statistiken leicht finden und entzerren. »Durch ein Working Node System bleibt das System immer skalierbar und lässt sich somit ideal auf die Bedürfnisse jeglicher Datenströme eines Unternehmens erweitern«, erklärt Brehme. 

Alles im Blick. Durch das im Lobster_data integrierte Modul Controlcenter ist es darüber hinaus möglich, alle Prozesse zu überschauen und gegebenenfalls einzugreifen, »denn die Software meldet proaktiv im Fehlerfall«, ergänzt Brehme. So ist es möglich, Prozesse nach der Korrektur fehlerhafter Eingangsdaten neu zu starten. Durch das Setzen von Kontrollpunkten, benachrichtigt das System beispielsweise, wenn es Daten erwartet, diese aber bis zu einem von Seiten des Unternehmens definierten Zeitpunkt nicht eingetroffen sind. »Für eine Datenqualität, die unbezahlbar ist«, so Brehme. 

Die automatische Dokumentation in der Software trägt dazu bei, dass Transparenz und Nachverfolgbarkeit gewährleistet sind. Zudem führen von Beginn an optimierte Prozesse zu mehr Flexibilität und Produktivität. »Ein Weg, schneller zu werden, liegt also in der Automatisierung der Datenzusammenführung«, da ist sich Brehme sicher.

 

Mit Lobster_data Big Data meistern: Vorteile der Lobster_data Integrationslösung. Schnell. Flexibel. Zuverlässig.

Einfachheit 

Mit Lobster_data erledigt man mit nur einem einzigen Tool die Einrichtung aller Schnittstellen in den Bereichen EAI, EDI, MFT und (I)IoT. Und das Beste: Das alles ohne Programmierkenntnisse; einfach per »Drag and Drop« den Integrationsvorgang von einem System in ein anderes in nur wenigen Schritten erledigen.

Schnelligkeit

Die Umsetzung von Schnittstellen erfolgt leicht durch ein direktes Mapping von Quelle und Ziel. Medienbrüchen wird hierdurch bestens vorgebeugt. Mit der Softwarelösung Lobster_data holen sich Unternehmen ein echtes Arbeitstier ins Haus. Tausende von Konvertierungsjobs in einer Stunde sind für das System kein Problem. 

Effizienz/Zeitersparnis

Durch die automatische Formaterkennung im Lobster_data sowie die fertigen Funktionsbausteine ist der Aufbau eines Mappings ein Kinderspiel. Notwendige Änderungen an der implementierten Logik können ohne weiteres auch von der Fachabteilung vorgenommen werden. 

Komfort

Als Tool für sämtliche Integrationsthemen (EAI, IOT, EDI, ETL…) enthält Lobster_data über 10.000 verschiedene Vorlagen für Industriestandards. Auch im Bereich Kommunikation werden alle gängigen Kommunikationsprotokolle unterstützt: von A wie AS/2 über W wie WebServices bis Z wie zentrale Dateiablagen. 

Übersicht/Kontrolle

Mit Lobster_data haben Unternehmen alle Prozesse immer im Blick. Durch das Modul Controlcenter ist es möglich, alle Prozesse zu überblicken und ggf. einzuschreiten. Weiterhin meldet sich Lobster_data proaktiv im Fehlerfall.

www.lobster.de

 



Dr. Martin Fischer,
Geschäftsführer Lobster GmbH

 

Illustration: © exile_artist/shutterstock.com

 

 

05 Artikel zu „Datenintegration“

Datenintegration als Grundlage für Industrie 4.0

So schaffen Sie eine integrierte Datenbasis für Ihr Industrie-4.0-Projekt. Viele Produktionsunternehmen sind dabei, Fertigungsprozesse und ganze Wertschöpfungsketten zu digitalisieren. Für alle gilt: Es braucht ein tragfähiges Konzept für die Sammlung, Speicherung und Auswertung der vielen Daten, die im Zuge der Digitalisierung von Fertigungsprozessen anfallen.   Manche stehen noch am Anfang, andere sind schon mittendrin: Viele…

Datenintegration ist entscheidend für die Data-Warehouse-Modernisierung

Das Business Application Research Center (BARC) veröffentlicht »The Data Management Survey 19«, eine neue Studie, die auf einer aktuellen weltweiten Umfrage unter 782 Nutzern von Datenmanagementsoftware basiert. Die Umfrageergebnisse geben Einblicke in aktuelle Ansätze zur Modernisierung des Data Warehouse sowie einen Vergleich von elf führenden Datenmanagement-Produkten. Bekanntlich fallen etwa 70 bis 80 Prozent des Aufwandes…

Datenintegration als Grundlage KI-gestützter Planungssysteme – Marktreife KI-Lösungen

Künstliche Intelligenz (KI) lebt von großen Datenmengen. Für die zunehmende Unterstützung von Planungs-, Budgetierungs- und Controllingprozessen durch Advanced Analytics und KI-Lösungen sind leistungsfähige Datenmanagement- und Integrationsszenarien eine unabdingbare Voraussetzung. Die Jedox AG nutzt den  Data Hub ihrer CPM-Softwareplattform für neue KI-Applikationen. Pilotkunden berichten vom erfolgreichen Einsatz der Jedox KI-Engine.

So gewinnen Sie den Hürdenlauf bei der Datenintegration

Die Datenschlacht ist in vollem Gange: Unternehmen, die ihre Daten nicht für die Geschäftsausrichtung nutzen können, werden dem Wettbewerbsdruck nicht standhalten können. Doch Daten liegen in unterschiedlichen Formaten vor und an verschiedensten Stellen im und außerhalb des Unternehmens. Zudem sind oft nur zu einem geringen Grad miteinander verknüpft. Dabei ist eine tiefgehende Datenintegration die zwingende…

ERP-Systeme – Open Source vs. Closed Source

Der Entscheidungskampf zwischen Open-Source- und Closed-Source-Softwarelösungen wird weiterhin mit vollem Eifer gefochten. Auch im ERP-Bereich kann man keinen generellen Sieger ernennen. Beim Entschluss zu einem Für oder Wider sollten einige wichtige Kriterien, wie Innovationsfähigkeit, Support, Sicherheit, Leistung, Preis oder Unternehmensgröße, bei der Entscheidungsfindung berücksichtigt werden.

In drei Schritten zur datengesteuerten Unternehmenskultur

Der Begriff »data-driven« hat sich mittlerweile zu einem wahren Trend entwickelt. Aber was bedeutet das eigentlich? Wie wandeln sich Unternehmen weg von einer instinktiv gesteuerten Kultur hin zu einem Mindset, das auf Daten und Erkenntnissen basiert? Worum es hier geht, sind Daten, mit denen Entscheidungsprozesse gesteuert und verbessert werden können.   Ein derartiger Wandel ist…

Trend Radar: KI ist gewinnbringend, braucht aber einen strategischen Ansatz

Nach dem erfolgreichen KI-Start folgt jetzt die Kopfarbeit. Wie weit sind Unternehmen mit dem Einsatz von künstlicher Intelligenz? In welchen Bereichen können sie KI schon heute gewinnbringend einsetzen? Wie wichtig ist ein strategischer Ansatz?   Im Rahmen des Pega Trend Radar hat Pegasystems den Einsatz künstlicher Intelligenz (KI) in deutschen Unternehmen beleuchtet. Die Ergebnisse der…

Die wahren Kosten der Legacy-Infrastruktur: Probleme mit Compliance, Budget und Leistung

Die Studie »Data-Driven Transformation in Europe« belegt, dass lediglich 58 % der Führungskräfte für Informations- und Kommunikationstechnologie (IKT) in Behörden und Ämter zuversichtlich sind, mit ihrer aktuellen Dateninfrastruktur strategische Transformationsziele erreichen zu können [1]. Die Umfrage unter hochrangigen Führungskräften im IKT-Bereich ergab, dass die derzeitige Dateninfrastruktur die operative Agilität beeinträchtigt (84 Prozent), die Betriebskosten erhöht…

KI-basierte Sicherheitstools erhöhen die Komplexität, vermindern aber keine Gefahr

Klassische Sicherheitstools können nur einen Teil der Cyberangriffe verhindern, Anbieter entwickeln deshalb zunehmend KI-gestützte Tools. Allerdings bieten auch sie keine hundertprozentige Sicherheit. Nur die konsequente Isolation aller Gefahren verspricht Erfolg, meint IT-Sicherheitsanbieter Bromium. Angesichts der nach wie vor hohen Gefährdungslage nutzen Unternehmen in der IT verstärkt neue Lösungen. Im Trend liegen vor allem KI (Künstliche…

Eine PAM-Lösung schließt nicht alle offenen Sicherheitslücken

Privilegierte Konten sind bei Hackern beliebt. Werden sie gekapert, haben Cyberkriminelle freien Zugriff auf sensible Unternehmensdaten. Mit Privileged-Access-Management-Lösungen lässt sich dieses Risiko zwar vermeiden – ein korrumpiertes Endgerät kann trotzdem zum Einfallstor für Angreifer werden.   In den meisten Unternehmen gibt es eine Vielzahl an privilegierten Accounts. Das sind zum Beispiel Administrator-, Service-, Root- oder…

Manager stehen dem Einsatz künstlicher Intelligenz positiv gegenüber

Vorteile und Chancen durch KI werden vor allem von Managern der Generation Y gesehen. Keine Angst vor Jobverlusten, aber Veränderung der eigenen Führungsrolle erwartet. Dreiviertel der Führungskräfte im Raum D-A-CH begegnen Anwendungen künstlicher Intelligenz (KI) in ihren Unternehmen positiv und aufgeschlossen, wie das neue Manager-Barometer 2019/2020 von Odgers Berndtson ergeben hat. Dabei werden die größten…

Automatisierung von Prozessen ist eines der wichtigsten Investitionsthemen in Unternehmen

Robotic Process Automation für die systemübergreifende Automatisierung hat bereits hohen Durchdringungsgrad. RPA-Tools verbessern Prozessqualität und -geschwindigkeit und sparen Kosten ein. Kombination mit KI bietet zusätzliches Optimierungspotenzial.   Bei den Unternehmen steht sie seit Jahren an der Spitze der wichtigsten Investitionsthemen: die Automatisierung von Prozessen. Die Suche nach neuen Möglichkeiten, Geschäfts- und IT-Prozesse effizienter, schneller, kostengünstiger…

Wachsende Anzahl von Mitarbeitern wird in naher Zukunft einen digitalen Kollegen haben

Zukunft der Arbeit: Unternehmen benötigen Content Intelligence, um die intelligente Prozessautomatisierung voranzutreiben. Eine weltweite Umfrage des Forschungsunternehmens IDC, gesponsort von Abbyy, zeigt das Potenzial von Softwarerobotern, Menschen an ihrem Arbeitsplatz zu unterstützen. Die Ergebnisse zum Arbeitsplatz der Zukunft zeigen, dass Roboter – oder auch digitale Mitarbeiter genannt – bereits jetzt einen wachsenden Anteil an der…

So gelingt die Produktentwicklung mit einem MVP – Schnell, effizient und kundenorientiert

$
0
0

Um erfolgreiche Anwendungen zu entwickeln, müssen Verantwortliche die Wünsche und Bedürfnisse potenzieller Nutzer kennen. Welche Funktionen sind für sie zwingend notwendig, und welche können auch erst später implementiert werden? Diesen Ansatz verfolgt die Arbeitsweise mit einem »Minimum Viable Product«.

Ein Produkt über Monate oder gar Jahre bis zur Marktreife entwickeln und es erst launchen, wenn es vermeintlich fertig und perfekt ist: Was vielleicht vor einigen Jahren im Bereich der Programmierung von Software oder Internetauftritten funktioniert hat, ist heute nicht mehr umsetzbar. Denn zum einen fällt mit dieser Methode erst im praktischen Einsatz auf, dass Funktionen des Produkts die Bedürfnisse der Anwender nicht optimal adressieren. Zum anderen besteht die Gefahr, dass dessen Fertigstellung so viel Zeit in Anspruch nimmt, dass es bei seiner Veröffentlichung bereits nicht mehr dem aktuellen Stand der Technik entspricht. Bei der Entwicklung mit dem »Minimum Viable Product« (MVP) liegt der Fokus hingegen auf einer schnellen Marktreife – ohne Abstriche bei der Qualität. Deshalb wird zunächst ein geringerer Umfang an Funktionen entwickelt, die allerdings einen direkt sichtbaren Mehrwert für die Nutzer haben.

Das Konzept des »minimal überlebensfähigen Produkts« ist Teil der Lean-Startup-Methode, deren Ziel es ist, die nach dem ersten Launch erhaltene Rückmeldung der Nutzer für die Weiterentwicklung des Produkts zu nutzen. Die Umsetzung dieses auch als »Build-Measure-Learn«-Methode bezeichneten Vorgehens ermöglicht agile Arbeitsweisen: Nachdem erste Funktionen implementiert wurden, wird durch Feedbackrunden umgehend geprüft, ob sie ihren Zweck erfüllen. Hieraus können Entwickler dann die nächsten Arbeitsschritte ableiten. Doch welche Regeln gilt es zu beachten, damit der Einsatz eines MVPs in der Website- oder Softwareprogrammierung zum Erfolg wird?

Regel 1: Kontinuierliche Produktentwicklung statt Projektarbeit. »Wenn Sie sich nicht für die erste Version Ihres Produkts schämen, haben Sie es zu spät auf den Markt gebracht.« Was Reid Hoffman, Gründer des Business-Netzwerks Linkedin, hier so überspitzt formuliert, hebt die typische Problematik bei der Arbeit mit einem MVP hervor – nämlich zu viele Funktionen zu perfekt umsetzen zu wollen. Stattdessen empfiehlt es sich, Möglichkeiten für Optimierungen zu lassen.

Da bei Projektbeginn bewusst keine abgeschlossene Übersicht mit den verfügbaren Funktionen definiert wird, können weder die Kunden noch das Entwicklerteam voraussagen, wie die finale Lösung gestaltet sein wird. Daher kann die Arbeitsweise mit einem MVP im schlechtesten Fall als Kostenfaktor mit schwer einschätzbarem finanziellen Ausmaß wahrgenommen werden. Tatsächlich können durch die iterative Vorgehensweise die Kosten für spezifische, zu implementierende Funktionen aber viel deutlicher gegenübergestellt werden, so dass das Produkt mit einem gut überblickbaren Budget weiterentwickelt werden kann. Außerdem lassen sich durch den frühen Praxiseinsatz Einnahmen schneller generieren und früher Erfolge feiern und aufzeigen. Dies erhöht auf Seiten der Auftraggeber das Vertrauen in die Entwickler sowie die Zufriedenheit der Mitarbeiter.

Regel 2: Vom Frontend aus denken. Durch nutzerfreundliche Angebote wie Netflix, Spotify oder Amazon hat sich die Erwartungshaltung von Verbrauchern an digitale Services grundlegend verändert. Optisch ansprechende Benutzeroberflächen, die intuitiv zu bedienen sind, werden heute als Standard angesehen. Dementsprechend erwarten Kunden sie von ihrer Versicherung oder Bank genauso, wie Mitarbeiter von unternehmensinternen Lösungen.

Darum empfiehlt es sich, bei der Entwicklung von beispielsweise Websites im ersten Schritt ausschließlich deren Nutzeroberfläche im Fokus zu haben. Dabei muss jedoch beachtet werden, dass beispielsweise ein neuer Online-Service keine Insellösung sein kann. Er muss in der Lage sein, auf bereits bestehende Systeme zuzugreifen und Daten zwischen User Interface und Backend zu übermitteln, um Arbeitsschritte automatisieren und vereinfachen zu können.

Regel 3: Verbindung zwischen neuem und altem System schaffen. Insbesondere für Betriebe mit historisch gewachsener IT-Infrastruktur kann die Entwicklung von ansprechenden Internetauftritten oder digitalen Diensten jedoch eine große Herausforderung sein. Denn an die dort bestehenden Legacy-Systeme und deren zumeist auf Sicherheit und Stabilität fokussierte Vorgaben muss sich ein neues Frontend anpassen, damit ein Austausch zwischen beiden Ebenen gelingt. Oftmals leidet die Nutzerfreundlichkeit darunter aber enorm. Es ist jedoch kaum möglich, das komplette Backend vorübergehend abzuschalten und es für eine bessere User Experience an der Schnittstelle umzubauen. Der Grund: Backends werden in der Regel über viele Jahre hinweg entwickelt und haben einen wichtigen Auftrag zu erfüllen. Ihre Aufgabe ist es, den reibungslosen Ablauf des täglichen Geschäfts sowie die Einhaltung gesetzlicher Bestimmungen zu garantieren.

Als Lösung eignet sich in einem solchen Fall ein Frontend-Layer wie couper.io. Er dient als eigenständige Entwicklungsebene einer neuen Nutzeroberfläche und bietet Schnittstellen, über die die Daten zwischen den beiden Plattformen übermittelt werden können. Durch diese Zweiteilung der IT bleiben die stabilen Systeme im Hintergrund unangetastet, während sich User Interfaces flexibel an jegliche Marktveränderungen anpassen lassen.

Praxisbeispiel Uelzener Versicherungen: Mit MVP meistgenutzte Services identifizieren. Wie ein erfolgreicher schrittweiser Umbau eines Internetauftritts gelingt, zeigt das Beispiel der Uelzener Versicherungen. Der Sevenval-Kunde, der seit fast 150 Jahren als Spezialversicherer für Tiere tätig ist, hat im ersten Schritt nur den Servicebereich auf seiner Website optimiert, statt den gesamten Internetauftritt zu relaunchen. Grundlage für die Optimierung waren konkrete neue Anforderungen, sowohl auf Seiten der Kunden als auch der Fachabteilungen – etwa die Möglichkeit, Leistungsfälle digital melden zu können. Solche Self-Service-Angebote, gepaart mit einem neuen Design, konnten bereits mit dem MVP eingesetzt werden, unabhängig von einem vollständigen Relaunch.

Mit dem Frontend-Layer couper.io wurde dafür – vom Backend getrennt – ein neues User Interface für den Servicebereich der Website gestaltet. Hier werden nun sämtliche Formulare für Kontaktanfragen sowie FAQs und der Downloadbereich gebündelt präsentiert, was zuvor auf Untermenüs verteilt war. Durch die Optimierung finden die Seitenbesucher nun schneller die gewünschten Dienstleistungen, zudem wird ihr Verhalten auf den Serviceseiten detaillierter analysiert. Die dadurch gewonnenen Erkenntnisse werden genutzt, um das Angebot beständig zu optimieren und den Besuchern die von ihnen gewünschten Dienste noch ansprechender präsentieren zu können.



Roland Guelle, CTO, Sevenval Technologies GmbH (l.) und
Jacek Chmiel, Global Chief of Consulting & Technology, IT Services Competence Platform

 

Illustration: © ilgazerelphotography/shutterstock.com

 


 

Fünf häufige Fehler, die wir in den sozialen Medien vermeiden sollten

Ein Experte erklärt unser Social-Media-Verhalten und wie wir es verbessern können. Laut eines aktuellen Berichts zählen Facebook, Twitter und Instagram zu den Top 10 der weltweit am meisten besuchten Websites. Obwohl Milliarden Menschen täglich Tausende Stunden auf diesen sozialen Plattformen verbringen, sehen viele diese Art von Aktivität nicht als riskant an. Das Risiko entsteht durch fahrlässige…

Container: Entwickler setzen auf weniger Komplexität

Mit zunehmender Komplexität der Unternehmens-IT und Cloud-Umgebung nehmen Entwickler die Entwicklungsstrategien immer öfter in die eigene Hand. »Mehr Abstraktion und weniger Komplexität«, so lautet das Motto, wie die Ergebnisse der jüngsten »Global Perception Study« der Cloud Foundry Foundation zeigen [1].   Immer mehr Großunternehmen (60 Prozent) berichten, dass sie ihre IT-Infrastruktur in einer zunehmend komplexeren…

Das Wasserfallmodell kann zu absurden Prozessen führen

Agile Entwicklungsmethoden zeichnen sich unter anderem durch die hohe Eigenverantwortung aus, die den beteiligten Personen zugestanden wird. Ganz anders dagegen bei der Softwareentwicklung nach dem Wasserfallmodell. Sie ist stark hierarchisch geprägt ist und zwingt die Beteiligten, sich ständig abzustimmen und rückzuversichern. Das führt dazu, dass selbst kleinste Probleme zu aufgeblähten Prozessen ausufern. Der auf Software…

Cyberrisiken durch mangelnde IT-Security bei DevOps

Silos in der Unternehmens-IT führen zu unnötigen Sicherheitsrisiken. Die mangelnde Beteiligung der IT-Security an DevOps-Projekten führt laut einer Umfrage für 62 % der IT-Führungskräfte in Deutschland zu einem erhöhten Cyberrisiko.   Um die DevOps-Kultur besser zu verstehen, beauftragte der japanische IT-Sicherheitsanbieter Trend Micro das unabhängige Marktforschungsunternehmen Vanson Bourne damit, 1.310 IT-Entscheider in KMUs und Großunternehmen…

Agile ERP-Entwicklung: Anwender als Design-Partner

Dank agiler Methoden kommen neue ERP-Funktionalitäten heute viel schneller auf den Markt. Mehr noch: Die Anwender haben auch immer mehr Einfluss auf die Entwicklung. Die neue Art der Teamarbeit bindet auch Stakeholder auf ganz neue Weise ein. Welche Rolle der Kunde dabei spielen kann, erklärt der ERP-Hersteller proALPHA. Mit agilen Methoden machen Softwarehersteller komplexe Entwicklungsprojekte…

Autonome DevOps als Schlüssel zum Unternehmenserfolg

Welche technischen Voraussetzungen sind für das erfolgreiche Arbeiten weitgehend selbstständiger Entwicklerteams erforderlich? Marktbedingungen verändern sich durch die Digitalisierung rasant. Auch wenn die Disruption in manchen Branchen noch nicht völlig gegriffen hat, werden Unternehmen in diesen Sektoren aber oft durch die Erwartungshaltung ihrer Kunden dazu gezwungen, sich der Digitalisierung und ihren disruptiven Momenten zu stellen. In…

UI/UX-Design-Grundsätze machen auch BPM-Tools attraktiv – Das Runde im Eckigen

Kann man über die Nutzbarkeit von Softwareprogrammen reden, ohne gleich den warnenden Zeigefinger des Nutzers zu sehen, diese müsse sich deutlich verbessern? User Experience Design ist der spannende Prozess hin zu leicht verständlicher und schnell benutzbarer Software unter den gebotenen technischen Möglichkeiten und unter der Einhaltung definierter beziehungsweise empirisch entstandener Standards und Styleguides. Dabei ist die Mensch-Computer-Interaktion das wissenschaftliche Fundament, und im Kern soll das Nutzererlebnis beziehungsweise die User Experience auf allen Ebenen optimal stimuliert werden. Dem Nutzer gefällt, was einfach zu bedienen und schön anzusehen ist.

Cybersicherheit und Container – So funktioniert die Umstellung auf DevSecOps

Die schnelle Einführung von Containern im Unternehmen sind eine einzigartige Gelegenheit dar, die generelle Sicherheitsstrategie zu verändern. Container stellen eine gute Möglichkeit dar, die Kluft zwischen Entwicklungs- und Sicherheitsteams zu überbrücken. Ist es möglich, dass Container das Unternehmen einen Schritt näher an DevSecOps heranbringen? Palo Alto Networks nimmt das Thema unter die Lupe. Computing hat…

SecDevOps – Agilität braucht Sicherheit

Agiles Programmieren ist für die meisten Unternehmen und Entwickler mittlerweile Standard. Die bekanntesten Frameworks (Scrum, XP usw.) werden in vielen Entwicklungsteams angewendet und bieten für Teams, Unternehmen und Kunden eine Reihe von Vorteilen. Gleichzeitig bergen sie aber auch Risiken – gerade was die Sicherheit angeht. Unternehmen müssen hier handeln, denn ohne Sicherheit gibt es keine…

Intelligente Sicherheit für intelligente Städte

Die Vereinten Nationen prognostizieren, dass bis 2050 68 % der Weltbevölkerung in städtischen Gebieten leben werden. Dies ist ein enormer Anstieg gegenüber den 55 %, die heute bereits in den Städten der Welt leben. Diese Migration in die Metropolen setzt Stadtplaner, Manager und politische Entscheidungsträger gleichermaßen unter Druck. Es gilt, die Stadtverwaltung zu optimieren und…


Data Quality: HELM AG modernisiert und zentralisiert Datenhaltung

$
0
0

Dezentral organisierte Unternehmen tun sich oft schwer, Informations- und Datenprozesse schlank, einheitlich und transparent zu organisieren. Die Digitalisierung verstärkt den Erneuerungsdruck. Die global tätige HELM AG hat es mit Hilfe einer Data-Quality-Lösung geschafft, ihre vertrieblichen und kaufmännischen Arbeitsabläufe zu optimieren. Die Software sorgt dafür, dass die neu erstellte zentrale Stammdatenbasis von Dubletten und Inkonsistenzen befreit wird und im Tagesgeschäft dauerhaft »sauber« bleibt.

Vierhundertfünfundfünfzig Hidden Champions identifizierte ein Wirtschaftsmagazin in Deutschland Ende 2018 im Rahmen einer Marktstudie. Unternehmen also, die auf ihren Betätigungsfeldern zu den Weltmarktführern zählen, in der Öffentlichkeit aber kaum bekannt sind. Die HELM AG ragt aus dieser Elite in einer Kategorie unübersehbar heraus. Mit 7,4 Millionen Euro Umsatz pro Mitarbeiter in 2017 übertraf das 118 Jahre alte Hamburger Familienunternehmen alle anderen analysierten Firmen bei weiten. Die Erklärung liegt im Geschäftsmodell: Der international tätige Groß- und Außenhandelsdienstleister mit weltweit mehr als 1.500 Mitarbeitern ist spezialisiert auf den Ein- und Verkauf von chemischen und pharmazeutischen Produkten sowie Dünge- und Pflanzenschutzmitteln.

Daten- und Prozessexzellenz ist heute wichtiger als je zuvor. Was zeichnet Weltmarktführer aus? Unter anderem Innovationsfähigkeit, Spezialisierung und weltweite Kundennähe. Im Zeitalter der Digitalisierung mit immer kürzeren Innovations- und Transaktionszyklen sind Daten- und Prozessexzellenz wichtiger denn je. Die HELM AG verfolgt deshalb das Ziel, sich von der dezentralen Stammdatenhaltung zu verabschieden und eine moderne zentralisierte IT-Landschaft über alle Standorte hinweg aufzubauen. »Für die langfristige Steuerung unseres weltweiten Geschäfts ist es unabdingbar, Zahlen übergreifend transparent zu machen sowie Prozesse zu optimieren und zu beschleunigen«, erläutert Oliver Bösch, bei HELM als Senior Executive Manager tätig. Doch der Reihe nach.

Bislang arbeiten die 35 über den gesamten Globus verteilten Tochtergesellschaften und Niederlassungen quasi autark mit eigenen ERP-Systemen verschiedener Hersteller. Für das konzernweite Reporting war und ist das dezentral organisierte Stammdatenmanagement kein Nachteil, weil die Zahlen problemlos in einem dafür geschaffenen Prozess in der Zentrale zusammengefasst werden können. Aber qualitativ blieben Fragen offen, denn eine Vollständigkeits- und Plausibilitätsprüfung beispielsweise war nicht möglich. Als 2016 im Zuge der IT-Konsolidierungsstrategie der Plan gefasst wurde, ein CRM-System einzuführen, in dem über alle HELM-Standorte hinweg die Masteradressen von Kunden und Lieferanten zentral verwaltet werden sollten, musste man eine vereinigte Stammdatenbasis von hoher Qualität schaffen.

Durch Marktrecherche stieß man bei der HELM AG auf die Omikron Data Quality GmbH. Das Pforzheimer Unternehmen verfügt über Techniken und Werkzeuge, sprachenunabhängig Stammdaten fehlertolerant zu scannen und zusammengehörige Datensätze ausfindig zu machen und zusammenzuführen. Laut Anbieter lässt sich die Lösung in beliebige ERP- und CRM-Systeme integrieren.

 

 

Projektablauf: Schritt für Schritt zu einem fehlerfreien Gesamtdatenbestand. Im ersten Projektschritt waren die HELM-Tochterunternehmen aufgefordert, ihre Stammdaten nach Vorgaben der Zentrale selbst zu durchforsten und inaktive Kontakte zu eliminieren. Dadurch konnte die Anzahl der zu konsolidierenden Datensätze spürbar reduziert werden. Das Stammdaten-Projektteam führte die verbliebenen Kontakte aller Standorte mit Hilfe der Data-Quality-Lösung zu übergreifenden Adressmastern zusammen. In einem Clearing-Monitor wurden all jene Datensätze manuell geprüft und qualifiziert, bei denen die maschinelle Intelligenz nicht zweifelsfrei entscheiden konnte, ob es sich um Dubletten handelte oder nicht. Die identifizierten Dopplungen wurden aus den Stammdaten entfernt. Den verbliebenen Datenpool unterzog man schließlich – durch Abgleich mit Referenzdatenbanken – einer postalischen Prüfung. Durch Anreicherung einzelner Adressen und Vereinheitlichung der Schreibweisen konnte die Datenqualität nochmals verbessert werden.

»Diese Mastersätze waren quasi unser Stammdaten-Startkapital, das wir ins neue CRM-System überführt haben«, berichtet Christina Cool, Teilprojektleiterin Stammdaten im CRM-Projekt bei HELM. Damit die Datenqualität im CRM-System dauerhaft hoch bleibt, ist der Eingabe von Interessentendaten ein automatisierter Dubletten-Check vorgeschaltet. Daneben finden im heutigen ERP-System bei Neuanlage beziehungsweise Änderung von Adressen ebenfalls eine postalische Optimierung sowie ein Dubletten-Check statt. Der Prozess läuft nach einem standardisierten Verfahren ab. Zusätzlich hat man eine Vollständigkeitsprüfung implementiert, die dafür sorgt, dass ausschließlich vollständig erfasste Adressen aus den ERP-Systemen der HELM-Tochterfirmen ins CRM-System überführt werden. Ebenfalls hilfreich: Die schnelle und fehlertolerante Suche der Data-Quality-Software erleichtert den Usern des CRM-Systems das Finden von Stammdaten.

Das neue ERP-System kann mit sauberen Daten gefüttert werden. Auf das Zurückspielen der optimierten Kundendaten in die ERP-Systeme der Landesgesellschaften verzichtete man bei der HELM AG aufgrund des hohen Aufwands und mit Blick auf das nächste IT-Projekt bewusst: Das Ausrollen eines konzernweit einheitlichen ERP-Systems, mit dem zukünftig alle Landesgesellschaften arbeiten werden. Hier werden die konsolidierten Daten im Rahmen der Migration übernommen, wodurch das gesamte Unternehmen auf einer konsistenten Stammdatenbasis arbeiten kann. Auch im zukünftigen ERP-System wird man Dublettencheck und postalische Prüfungen nutzen, um eine hohe Datenqualität zu erhalten.

»Die verbesserte Datenqualität ist für uns das Fundament und ein elementar wichtiges Element für die Umsetzung unserer Gesamtstrategie«, berichtet Bösch. »Wir können im täglichen Geschäft Informationen zu Accounts zentral abrufen und teilen, was in dieser Form vorher nicht ansatzweise möglich war. Das beschleunigt unsere internen Prozesse und macht die Kommunikation transparenter. Der Kunde hat den Vorteil, dass er nicht mehr von mehreren Seiten angesprochen wird, sondern nur noch von einer. Wir erleben viele positive Effekte sowohl für unsere täglichen Prozesse als auch mit Blick auf die strategische Unternehmensplanung.«

Einfache Bedienbarkeit und Integrationsfähigkeit überzeugen. Positiv überrascht sind die Hamburger von der einfachen Bedienbarkeit der Data-Quality-Lösung. »Die Funktionen laufen in allen Systemen quasi unsichtbar für den Anwender«, berichtet Christina Cool. »Die Mitarbeiterinnen und Mitarbeiter bemerken gar nicht, dass hier eine zweite Software am Werk ist. Vorteilhaft ist ferner, dass wir die Regeln für die Dublettenprüfung selbst definieren und justieren können.« Oliver Bösch freut sich besonders über die unkomplizierte Systemintegration: »Für uns hat es elementare Bedeutung, dass die Integration der Data-Quality-Software in den neuen IT-Systemen und die benötigten Oberflächen schnell verfügbar sind.«



Gerhard Großjohann,
Energie- und IT-Kommunikationsjournalist

 

Illustration: © Zia liu, Tina Bits/shutterstock.com

 

Einfache und skalierbare Data-Engineering-Lösung von Talend und Databricks

Strategische Partnerschaft kombiniert Unified Analytics und Datenmanagement in der Cloud.   Databricks sowie Talend haben die Gründung einer strategischen Partnerschaft bekannt gegeben. Die Zusammenarbeit umfasst die Integration von Produkten beider Unternehmen. Ziel ist es, Data Engineers eine vereinfachte Durchführung von Datenintegrationsaufgaben auch im großen Stil zu ermöglichen.   »Im Rahmen unserer Cloud-Datenplattformstrategie nutzen wir Databricks…

Data Economy: Unternehmen verschenken Potenzial

Durch eine tiefe Integration in die Geschäftsprozesse können ERP-Systeme die datengetriebene Wertschöpfung weiter vorantreiben.   Daten spielen für die wirtschaftliche Leistung in Deutschland, Österreich und der Schweiz eine immer größere Rolle. Ein internationaler Vergleich aus 2018 zeigt jedoch: Hiesige Unternehmen bleiben bei der digitalen Wertschöpfung noch hinter ihren Möglichkeiten. Dabei bietet ein ERP-System, so der…

Die fünf wichtigsten Kriterien für ein Next Generation Data Center

Ein Mikro-Rechenzentrum so gut wie die Cloud.   Unternehmen befinden sich an einem Wendepunkt. Sie müssen neue Wege finden, wie sie Kunden für sich gewinnen. Die Geschäftsentwicklung erfolgt heute nicht mehr linear. Stattdessen können sich Chancen jederzeit aus allen Richtungen auftun. Unternehmen brauchen die Flexibilität, um umgehend reagieren zu können. Mit einem traditionellen Rechenzentrum ist…

Data-Warehouse-Landschaft 2018: Automatisierung wird entscheidend für Kunden sein

»In der Vergangenheit bauten Entwicklerteams Data Warehouses manuell, und Führungskräfte fokussierten sich nicht primär auf die Effizienz dieses Vorgangs. Doch mittlerweile erkennen sie, dass ein Großteil hiervon automatisiert werden kann, um die Bereitstellung von Entscheidungsdaten, die sie täglich benötigen, zu beschleunigen. Bereits 2017 haben Führungskräfte begonnen, das »Wie« der Daten in Frage zu stellen, und…

Chief Data Officer treiben das Geschäft an und ermöglichen die digitale Transformation im Unternehmen

Bis zum Jahr 2021 wird die Rolle des CDO unter allen Technologie-bezogenen C-Level-Positionen den höchsten Frauenanteil aufweisen. Die Rolle des Chief Data Officers (CDO) in Unternehmen gewinnt immer mehr an Bedeutung. Eine kürzlich von dem IT-Research-und Beratungsunternehmen Gartner durchgeführte Umfrage hat ergeben, dass sich diese Führungskräfte im Bereich Daten und Analytics als Dreh- und Angelpunkt…

Bis 2020 werden 15 Prozent der erfolgreichen Chief Data Officer C-Level Positionen als CEO, COO oder auch CMO einnehmen

Studie zeigt, dass 30 Prozent der CDOs bereits direkt an den CEO berichten. Laut des IT-Research und Beratungsunternehmens Gartner zeigt die neue Studie »Second Annual Chief Data Officer (CDO)«, dass CDOs, die bereits unter den ersten in dieser Position waren, nun den Weg für eine neue Unternehmensfunktion ebnen, die mit den Bereichen IT, Business Operations,…

Big Data Management Requires a Big Makeover

Limited expertise, technology prevent companies from big data success. Companies’ increased customer focus, demand for business growth and expansion and the need to keep up with competitors are all fueling big data adoption, according to industry sources. In a February 2015 study conducted by Vanson Bourne for CA Technologies, improving the customer experience (60%) and…

In-Memory-Technologie macht’s möglich – Dublettensuche um den Faktor 8 beschleunigt

Dublettensuche mit In-Memory-Technologie

Die Dauer eines Arbeitsvorgangs auf ein Achtel der zuvor benötigten Zeit zu senken und das Ergebnis sogar noch qualitativ zu verbessern, mutet märchenhaft an. Doch es ist Realität: Die 1&1 Internet AG aus Montabaur – einer der größten Internet Provider weltweit und Europas größter Webhoster, hat genau das bei der Optimierung der Dublettensuche in ihren konzernweit mehr als 20 Millionen Kundenstammdaten geschafft. Möglich wurde der Performance-Boost durch den Einsatz des Data Quality Servers von Omikron in Verbindung mit der In-Memory-Technologie.

Achillesferse Datenqualität

10 Fragen und Antworten rund um Data Quality und Stammdatenmanagement. Die Achillesferse für eine effiziente Digitalisierung liegt nicht in der Technik. Der entscheidende Schwachpunkt sind die Daten. Schleicht sich im digitalisierten Prozess eine Null zu viel ein oder fehlen wichtige Angaben, hat der gesunde Menschenverstand keine Chance mehr einzugreifen. Diese Schwäche lässt sich nur mit…

Nachhaltiges Datenqualitätsmanagement – einfacher als gedacht

In langfristig genutzte Wertobjekte wie eine Maschine, ein Fahrzeug oder ein Gebäude  investieren wir regelmäßig, um ihre Qualität und Funktionalität zu erhalten. Ohne permanente Wartung ist der schnelle Wertverlust absehbar. Das gilt auch für die Daten in Unternehmen und Organisationen. Vor allem die Stammdaten sind »langlebige Wertobjekte«, die permanent gepflegt werden müssen.

Mystery-Shopping-Studie 2018: Jeder zehnte Online-Shop antwortet nicht auf Kundenanfragen über Facebook

Der Online-Handel verdrängt zunehmend herkömmliche Vertriebskanäle. Die Welt des Online-Handels wird dabei immer größer. Doch wie genau tickt der deutsche E-Commerce-Markt? Welche Standards setzen etablierte Online-Shops, welche vielleicht innovative Newcomer? Vor allen Dingen stellt sich die Frage: Wie erlebt ein Kunde seinen Online-Kauf? Zur Beantwortung dieser Fragen hat das Forschungsinstitut ibi research an der Universität…

Customer Experience als Allein­stellungs­merkmal – Wie künstliche Intelligenz den E-Commerce verändert

Der E-Commerce wächst zwar nach wie vor, doch es sind die größten Online-Shops und Marktplätze, die am meisten zulegen – Stichwort: Marktkonsolidierung. Interessanterweise ist es nicht der Preis, der Kunden zu Amazon treibt: Laut einer Studie von Adobe wünschen sich Kunden vor allem Bequemlichkeit und ein gutes Einkaufserlebnis (»Customer Experience«).

ERP-Trends: Was 2019 wichtig ist

Sieben Themen, mit denen sich ERP-Verantwortliche 2019 auseinandersetzen sollten und drei Trends, die sie (noch) schieben können. Viele Mittelständler in Deutschland, Österreich und der Schweiz haben sich für 2019 den Ausbau ihrer ERP-Lösung vorgenommen. Welche Themen sollten ERP-Verantwortliche dabei auf dem Radar haben? Der ERP-Hersteller proALPHA hat aus zahlreichen Studien und einer Vielzahl von Kundengesprächen…

Online-Handel braucht Insolvenzdaten: »InsolvenzCheck« ermöglicht Live-Check und Bestandsprüfung für 12 Cent

Online-Shops sind besonders anfällig für Zahlungsausfälle. Allein im deutsche E-Commerce entstehen Zahlungsausfälle von mehr als 960 Millionen Euro pro Jahr. Doch umfassende und teure Bonitätsprüfungen sind zur Absicherung meist gar nicht nötig. Eine schnelle und kostengünstige Lösung hat Omikron nun zusammen mit der SolvencyCheck International AG entwickelt. Bonitätsprüfungen von Privatpersonen und Unternehmen kosten Geld. Auskunfteien…

10 gute Gründe für ein effizientes Produktdatenmanagement

Wer im E-Commerce gut verkaufen möchte, muss wie jeder andere Händler mit seinen Produkten überzeugen. Da sich die Produkte anders als im stationären Ladengeschäft nicht anfassen oder ausprobieren lassen, müssen die Produktbeschreibungen im Onlineshop den Kaufimpuls geben. Produktbeschreibungen gehören zu den Dingen, auf die Kunden im Onlineshop besonders Wert legen. Für 88 %, so eine…

Datenmanagement in der digitalen Transformation – Klasse trotz Masse

Es heißt, Daten sind die neue Währung. Deren Volumen steigt stetig aufgrund von Entwicklungen wie mobilen Apps, E-Commerce, dem Internet der Dinge (IoT) sowie dem maschinellen Lernen. Doch wie steht es um die Datenqualität und dem daraus zu schöpfenden Wert? Hier klafft die Schere (zu) weit auseinander. Um wirklichen Nutzen aus den in Unternehmen schlummernden Datenschätzen zu ziehen, muss deren Genauigkeit und Aktualität sichergestellt sein. Die Devise heißt: Klasse trotz Masse. Nur dies ermöglicht fundierte Entscheidungen, optimierte Kundenerfahrungen sowie freie Fahrt in die digitale Welt.

Überlastung der IT-Security-Teams – Automatisierung als Antwort auf den Fachkräftemangel

$
0
0

Verantwortliche für die IT-Sicherheit eines Unternehmens sehen sich häufig mit einer personellen Unterbesetzung ihrer Security-Abteilungen konfrontiert – und dies nicht nur kurz-, sondern ohne Aussicht auf Besserung mittelfristig. Ein möglicher Ausweg: automatisierte Workflows zur deutlichen Entlastung der IT-Security-Teams.

Schlagzeilen der einschlägigen Wirtschafts- und Fachpresse bringen es auf den Punkt. Für Unternehmen in der exponentiell expandierenden Digitalwirtschaft ist es eine der großen Herausforderungen, sowohl das richtige Personal als auch die richtige Anzahl von Mitarbeitern zu finden. 

Besonders kritisch trifft der Fachkräftemangel den Bereich IT-Sicherheit. Denn nicht nur die IT-Wirtschaft boomt, sondern auch die »Branchen« Datendiebstahl, Erpressung und Sabotage. Hinzu kommt für die IT-Security-Teams die Aufgabe, eine IT-Infrastruktur via Updates, Patches und Erweiterungen funktional zu halten. Diese wird aufgrund von Cloud-Services, Mobilgeräte oder IoT zunehmend komplexer. Die Folgen sind häufig überlange Reaktionszeiten auf Vorfälle, die eine Gefahr für das Unternehmen darstellen.

Ein Ausweg aus diesem Personalnotstand ist nicht in Sicht: Laut dem aktuellen Cybersecurity Jobs Report1 der New York Times wird es bis 2021 weltweit 3,5 Millionen unbesetzte Arbeitsplätze im Segment der Cybersecurity geben [1]. Einer Studie des Ponemon Institutes nach sind 58 Prozent der CISOs davon überzeugt, dass sich das Problem, über kein geeignetes Personal für die IT-Sicherheit zu verfügen, verschlimmern wird [2]. 

Mehr Effizienz durch SOAR. Heute haben viele Unternehmen in unterschiedlichste Sicherheitstechnologien investiert, die tagtäglich Tausende, wenn nicht Zehntausende von Warnungen und Alarmen auslösen. Deren Adressaten in den Sicherheitsteams müssen nun bestimmen, welche dieser Warnungen richtig und damit wichtig oder aber falsch positiv sind und welche Präferenzen zugeordnet werden sollen. Um ein vollständiges Bild zu erhalten, muss der Analyst hierzu die verschiedenen Datensilos der einzelnen Sicherheitslösungen aus dem Security Information and Event Management (SIEM) zusammenführen. Durch dieses organisatorische Prozedere werden immense Personalressourcen gebunden, die dann an anderer Stelle fehlen. Hier stellt sich die Frage: Wie können Mitarbeiter der IT-Sicherheit insoweit entlastet werden, dass sie sich auf komplexe Vorfälle, die Kompetenz und Kreativität erfordern, konzentrieren können?

Um diesen Workflow zu beschleunigen, bieten Lösungen zur Sicherheitsorchestrierung, Automatisierung und Reaktion (Security Orchestration, Automation and Response; SOAR) eine pragmatische Unterstützung, denn SOAR-Services integrieren sich in eine breite Palette interner und externer Anwendungen und kombinieren Informationen über Sicherheitsbedrohungen aus den unterschiedlichsten Quellen. Eine SOAR-Lösung ist verknüpft mit den Sicherheitssystemen wie etwa einem SIEM und nimmt deren Meldungen auf, die anschließend in vordefinierten Prozessen (Playbooks) verarbeitet werden. 

Auf dieser Basis unterstützen SOAR-Technologien die Automatisierung und Orchestrierung von Abläufen, Prozessen, Richtlinienumsetzung sowie dem Berichtswesen. Damit werden die Einordnung von Bedrohungen sowie deren Untersuchung und die darauffolgenden Reaktionen beschleunigt. 

Insbesondere kleinere Teams profitieren durch SOAR von einer deutlichen Entlastung, denn neben der Möglichkeit der halbautomatisierten, bestätigungsgesteuerten Reaktionen gibt es auch die Option, in Playbooks zu definieren, wie vollständig automatisiert verfahren werden soll. Gerade die Möglichkeit, grundlegende Aufgaben wie etwa die Deaktivierung eines Benutzerkontos oder die Isolation eines Hosts zu automatisieren, kann die Stunden oder Tage einsparen, an denen eine Bedrohung in der IT-Umgebung normalerweise aktiv ist. Die Automatisierung ist also eine entscheidende Basis dafür, die Zeit für die Untersuchung und Reaktion auf eine Bedrohung zu verkürzen.

Dabei ist es wichtig, dass die SOAR-Plattform über eine Testumgebung verfügt, um die Aktionen und Scripts zu testen, die für die Automatisierung benötigt werden, bevor sie in der Produktivumgebung Anwendung finden. Bei halbautomatisierten Workflows ist weiterhin darauf zu achten, dass die Lösung Funktionen bietet, um Genehmigungen für eine Aktion auch von mehreren Personen abteilungsübergreifend einzufordern.

Automatisierung von Sicherheits-Workflows. Für jede Art von Bedrohungen lassen sich via SOAR Abläufe oder auch automatisierte Playbooks definieren, die von der Untersuchung über die Festlegung von Reaktionen bis hin zu Praktiken zur Wiederherstellung nach einem Vorfall reichen können. Mögliche Anwendungsfälle für eine Automatisierung von Sicherheits-Workflows in den aktuellen komplex en Systemumgebungen verdeutlichen die Entlastung durch SOAR:

  • Endpunkt-Quarantäne: Wird ein Netzwerkzugang identifiziert, an dem sich ein verdächtiges Gerät befindet, erfolgt die Deaktivierung des Anschlusses und/oder des Geräts automatisch.
  • Benutzer sperren: Wurde ein Konto vermutlich kompromittiert, wird der Zugriff auf das Konto des Benutzers unabhängig vom verwendeten Gerät automatisiert unterbunden.
  • Konsolidierte Daten: Bei der Untersuchung eines potenziellen Malware-Vorfalls werden die forensischen Daten verdächtiger Endpunkte aus unterschiedlichen Quellen ohne manuellen Eingriff zusammengeführt und bereitgestellt.
  • Netzwerkzugriff sperren: Im Falle von Datenexfiltration kann ein Security-Team durch die Aktualisierung der Zugriffssteuerungsliste der Firewalls die Verbindung aufheben.
  • Vorgänge abbrechen: Nicht bekannte oder auf einer Negativliste eingetragene Vorgänge auf kritischen Geräten werden automatisiert unterbunden.

Diese Beispiele vermitteln einen Eindruck darüber, inwieweit SOAR dazu beitragen kann, IT-Security-Teams zu entlasten sowie Bedrohungen schneller zu erkennen und darauf zu reagieren. Denn durch verstärkte Effizienz, Integrationen und Automatisierung optimiert SOAR die Reaktion auf Sicherheitsvorfälle, verringert die Arbeitsbelastung und vereinfacht die Abläufe. Manuelle Aufgaben werden reduziert und die Konsistenz erhöht.



Rob Pronk, Regional Director
Central, Northern & Eastern Europe
bei LogRhythm

 

[1] https://www.nytimes.com/2018/11/07/business/the-mad-dash-to-find-a-cybersecurity-force.html
[2] https://www.raytheon.com/sites/default/files/2018-02/2018_Global_Cyber_Megatrends.pdf

 

Illustration: © vs148/shutterstock.com

 

403 Artikel zu „IT-Security Automatisierung“

Strategie: Public Cloud bringt ein Mehr an Automatisierung und Skalierbarkeit

In zukunftsorientierten Unternehmen werden Cloudlösungen oft diskutiert, da sie ein breites Spektrum an Potenzialen offerieren. Doch aufgrund der Komplexität des Themas fühlen sich viele Unternehmen verunsichert, da Fragen zur Sicherheit und »Compliance” wie ein Damoklesschwert über ihnen schweben. Auch die Zeit- und Budgetplanung erfordert eingehende technische Kenntnisse und viel Spezialwissen, um das Projekt erfolgreich umzusetzen.…

Whitepaper Sicheres Management: Vom Outsourcing zur Automatisierung

Compliance muss im Zeitalter der Digitalisierung neu definiert werden.     Die Digitalisierung ist im Betriebsalltag der Unternehmen angekommen. Zahlreiche Verwaltungs- und Geschäftsprozesse lassen sich inzwischen digitalisieren und automatisieren. Weniger Aufwand, kürzere Bearbeitungszeiten, höhere Qualität und niedrigere Kosten können beispielsweise mit Robot Process Automation (RPA) und dem Einsatz künstlicher Intelligenz (KI) erzielt werden. Doch neben…

Zögerliche Prozessautomatisierung gefährdet die Netzwerksicherheit

Automatisierung von Sicherheitsprozessen ist eine Grundvoraussetzung für die erfolgreiche Umsetzung digitaler Transformationsinitiativen. Zunehmende Netzwerkkomplexität und mangelnde Kenntnis des Sicherheitsstatus leistet Fehlkonfiguration Vorschub, die Angriffsfläche für Datenschutzverletzungen bieten.   Die von FireMon veröffentlichte Studie mit dem Titel »2019 State of the Firewall« zeigt die größten Herausforderungen auf, denen sich Unternehmen in Sachen Firewall-Management aktuell stellen müssen…

IT-Security: Unternehmen sehen steigenden Freelancer-Bedarf

Für drei Viertel der Großunternehmen kommt eine Beauftragung von externen IT-Spezialisten für IT-Security-Projekte in Frage. Acht von zehn Großunternehmen rechnen mit zunehmender Nachfrage nach externen Spezialisten im Bereich IT-Sicherheit.   Beim Thema IT-Security misst die Wirtschaft externen Projektdienstleistern eine wichtige Rolle bei. Für drei Viertel der Großunternehmen (72 Prozent) kommt der Einsatz von externen IT-Spezialisten…

Cyberrisiken durch mangelnde IT-Security bei DevOps

Silos in der Unternehmens-IT führen zu unnötigen Sicherheitsrisiken. Die mangelnde Beteiligung der IT-Security an DevOps-Projekten führt laut einer Umfrage für 62 % der IT-Führungskräfte in Deutschland zu einem erhöhten Cyberrisiko.   Um die DevOps-Kultur besser zu verstehen, beauftragte der japanische IT-Sicherheitsanbieter Trend Micro das unabhängige Marktforschungsunternehmen Vanson Bourne damit, 1.310 IT-Entscheider in KMUs und Großunternehmen…

Kognitive Automatisierung macht das Internet der Dinge intelligenter

In den letzten Jahren ist eine Welle technologischer Innovationen über die Unternehmen hinweg geschwappt, die Veränderungen, Herausforderungen aber auch Chancen mit sich gebracht hat. Im Wesentlichen handelt es sich hierbei um digitale Technologien, die es Unternehmen ermöglichen, ihre Flexibilität, Produktivität und Reaktionsfähigkeit im globalen Wettbewerb zu verbessern. Künstliche Intelligenz (KI) und das Internet of Things…

IT-Security: Angreifer tarnen sich immer besser

Cyberkriminelle nutzen vermehrt Ausweichstrategien und Antianalysen; Fortinet Threat Landscape Index erreicht bisher höchsten Stand.   Die Ergebnisse des vierteljährlichen Global Threat Landscape Report zeigen, dass Cyberkriminelle weiterhin nach immer neuen Schwachstellen auf der gesamten digitalen Angriffsfläche von Unternehmen suchen. Mit Ausweich- und Antianalyseverfahren werden ihre Ansätze dabei immer ausgefeilter. Zudem hat der Threat Landscape Index in diesem…

Automatisierung ist kein Prozess, sondern eine Entscheidung – Mut zur Veränderung

Manuelle Arbeiten zu minimieren bedeutet höhere Produktivität und auch mehr Sicherheit. Diese Erkenntnis ist nicht neu, doch in der Praxis noch nicht vollends angekommen. Mit »haben wir schon immer so gemacht«, werden viele Unternehmen im digitalen Wandel auf der Strecke bleiben. Mut zur Veränderung, ist eine Entscheidung für die Zukunft. Dabei kann eine Umstellung auf automatisierte Prozesse so einfach sein.

Automatisierung und künstliche Intelligenz: 7 Trends im Geschäftsreisemanagement

Kaum ein Lebensbereich, den die Digitalisierung nicht von Grund auf verändert, neu formiert und vereinfacht. Auch Geschäftsreisen profitieren von durch Automatisierung und künstlicher Intelligenz unterstützten Möglichkeiten. Ein Innovationsplateau ist nicht in Sicht. Vielmehr werden technologische Innovationen weiterhin die Art und Weise verändern, wie Geschäftsreisen geplant, gebucht und abgerechnet werden und auf Trips begleiten und unterstützen.…

IT-Security zieht in die Cloud um: Vom Büro bis zum Home-Office ist alles abgesichert

Unternehmen wollen Risiken minimieren – Firewalls der nächsten Generation sind in der Cloud. In der IT-Security hat es in den vergangenen Jahren viele Erdbeben gegeben – die Risiken sind enorm gewachsen, neue Opfer von Ransom- oder Malware kommen täglich hinzu. Die Risiken wollen Unternehmen minimieren, und vor allem die Verantwortung von der eigenen und meist…

Kluft zwischen IT und Fachbereichen als Hemmschuh der Zusammenarbeit – Digitalisierungsstau

$
0
0

Jedes Unternehmen ist heute direkt oder indirekt ein Software-getriebenes Unternehmen. Dadurch verändern sich auch die Anforderungen an die eigene IT. Doch wie wird die IT in Unternehmen wahrgenommen? Gibt es grundsätzliche Unterschiede zwischen der Selbstwahrnehmung der IT und der Außenwahrnehmung durch die Fachbereiche? Und wie fügen sich neue Formen der Zusammenarbeit, beispielsweise bei der kollaborativen Softwareentwicklung, in diesen Kontext ein?

Um diesen und weiteren Fragen auf den Grund zu gehen, hat Dimensional Research im Auftrag von Mendix 1010 Mitarbeiter von IT und Fachbereichen in DACH, Benelux, UK und den USA befragt. Die Ergebnisse bestätigen dabei teilweise gewisse Annahmen, andere spiegeln überraschende Aussagen wider.

Einigkeit zwischen IT und Fachbereichen. Vielleicht nicht ganz zu Unrecht wird Fachabteilungen und IT unterstellt, dass es oft am gegenseitigen Verständnis fehlt und es deshalb zu Reibereien kommt.

Oft herrscht vermeintlich die Meinung vor, dass die IT eines Unternehmens eher als Kostenstelle denn als Wertschöpfer wahrgenommen wird. 70 Prozent der für die Studie Befragten sehen in der IT-Abteilung jedoch stattdessen einen Wertschöpfer, der den Unternehmenserfolg maßgeblich mitprägt. Ein noch höherer Anteil der Befragten aus den Fachbereichen, nämlich 95 Prozent, ist der Meinung, dass die IT einen Mehrwert bei strategischen Initiativen darstellt. Ebenso herrscht Einigkeit darüber, dass die IT-Abteilung oft mit der schieren Anzahl an geforderten Projekten überfordert ist (Fachbereiche 71 Prozent, IT 75 Prozent).

Doch nicht alles eitel Sonnenschein? Geht man jedoch über das Allgemeine hinaus und dringt tiefer in die Materie ein, wird schnell deutlich, dass es teils auch gravierende Unterschiede darin gibt, wie die IT-Abteilung wahrgenommen wird. Hier kommen besonders die Budgetierung, aber auch die Effizienz bei der Umsetzung von Projekten zum Tragen.

So sehen mehr als die Hälfte (51 Prozent) der befragten ITler in der DACH-Region in den verfügbaren Budgets einen Hemmschuh für die Vollendung anstehender Projekte. In den Fachbereichen hingegen ist die überwiegende Mehrheit der Meinung, dass die Budgets der IT-Abteilung völlig ausreichend bemessen sind. Mit 24 Prozent ist hier lediglich ein knappes Viertel der Befragten der Meinung, dass die IT-Budgets zu gering sind und erkennt dies als Problem an.

Auch bei Legacy-Systemen herrscht offenbar Uneinigkeit in Unternehmen. Besonders in den Fachbereichen scheint hier die Meinung »never change a running system« vorzuherrschen. Solange die Systeme wie gewünscht funktionieren, besteht nur ein geringes Bedürfnis, daran etwas zu ändern. Dem gegenüber steht die IT, die oft einen nicht geringen Aufwand betreiben muss, um Legacy-Systeme auch weiterhin instand zu halten. Dieser Fokus auf eigentlich veraltete Systeme wird daher von 58 Prozent der befragten IT-Mitarbeiter auch als Innovationsbremse im Unternehmen wahrgenommen. Auf Seiten der Fachabteilungen sehen hingegen lediglich 23 Prozent ein Problem in der Instandhaltung von Legacy-Systemen.

Shadow-IT – da scheiden sich die Geister. Ein weiteres großes Thema, das die Fachbereiche und die IT spaltet, betrifft die sogenannte Shadow-IT. Dabei handelt es sich um Hard- oder Software, die ohne das Wissen der IT-Abteilung für unternehmensinterne Prozesse verwendet wird, ohne in die offizielle IT-Infrastruktur integriert zu sein. Dass es sich hier um kein vereinzeltes Problem handelt, belegen verschiedenste Analysten- und Anbieterstudien. So schätzt beispielsweise Gartner, dass 30 bis 40 Prozent der Ausgaben für IT-Services auf Shadow-IT entfallen. Und laut Ciscos Shadow IT Report liegt die Anzahl der eingesetzten Cloud-Dienste in Unternehmen um 15 bis 22 Mal höher, als die CIOs der befragten Unternehmen vermuten. Das bedeutet, dass oft hunderte Cloud-Dienste für teils unternehmenskritische Aufgaben verwendet werden, ohne, dass die IT-Abteilung davon weiß.

 

 

Zwar hat die Umfrage ergeben, dass in IT-Abteilungen (91 Prozent) und Fachbereichen (89 Prozent) Einigkeit darüber besteht, dass die unkontrollierte Erstellung beziehungsweise der unkontrollierte Einsatz von Anwendungen gefährlich sein kann. Hier stehen vor allem Bedenken in den Bereichen Datensicherheit, Datenintegrität und Datenschutz im Vordergrund. Doch trotz ihres Bewusstseins für die Gefahren sagen beinahe zwei Drittel (62 Prozent) der befragten Fachbereichsmitarbeiter in DACH, dass in ihren Augen Shadow-IT grundsätzlich als positiv zu bewerten ist, solange sie verwaltet und unterstützt werden kann.

Fachabteilungen fühlen sich missachtet. Doch warum ist die Shadow-IT innerhalb der Fachbereiche derart beliebt und wächst so stark? Laut eigener Aussage erstellen und verwenden 57 Prozent der Verantwortlichen lieber eigene Anwendungen, als sich bezüglich ihrer Ideen und Bedürfnisse mit der IT-Abteilung auszutauschen.

Dies könnte darauf zurückzuführen sein, dass ihnen einerseits die Zeit zur Umsetzung von IT-Projekten zu lang erscheint. Schließlich geben 59 Prozent der befragten Fachbereichsmitarbeiter an, dass die Wartezeit bis zur Fertigstellung von Projekten von sechs Monaten bis hin zu mehreren Jahren in Anspruch nehmen kann.

Zudem fühlen sich viele der befragten Fachbereichsmitarbeiter von der IT-Abteilung missachtet. So berichten 69 Prozent der Befragten, dass ihre Ideen für neue IT-Lösungen in höchstens der Hälfte aller Fälle auch von der IT-Abteilung Beachtung finden. Diese wahrgenommene Missachtung ist vermutlich mit ein Grund, warum mehr als die Hälfte der Mitarbeiter aus den Fachbereichen (57 Prozent) lieber in Eigenregie Tools und Services anschaffen und verwenden, ohne die IT-Abteilung einzubeziehen.

Wo liegt die Lösung? Um diese Kluft zwischen IT und Fachbereichen zu überbrücken, bedarf es an sich nicht viel. Schließlich sind sich beide Seiten grundsätzlich darin einig, dass es positive Auswirkungen haben kann, wenn die Fachbereiche ihre Unternehmensanwendungen selbst erstellen, solange sie sich an die von der IT festgelegten Regeln halten (Fachbereiche 70 Prozent, IT 62 Prozent).

Dass es zu einem solchen Konsens kommen kann, bedarf es aber einer geeigneten technologischen Grundlage. Einerseits muss die IT sicherstellen, dass die Regulierungen zu Themen wie Datenschutz, Governance oder Datensicherheit eingehalten werden. Andererseits sollte die gewählte Basis aber auch zugänglich für nicht-technische Entwickler, sogenannte Citizen Developer sein, damit diese ihre Anforderungen entsprechend umsetzen können.

Hier bietet sich eine umfassende Low-Code-Plattform als Lösung an, die sozusagen beide Fliegen mit einer Klappe schlägt. Sie ist zugänglich und mit ihr lassen sich auch komplexe Unternehmensanwendungen erstellen, die im gleichen Atemzug die von der IT gestellten Anforderungen erfüllen. Mit schlagkräftigen Resultaten: Anwendungen werden bis zu 10x schneller erstellt und die hohe Abbruchrate von Projekten, die bei traditioneller Entwicklung üblich ist, wird deutlich reduziert.



Hans de Visser
ist VP Product Management
bei Mendix

 

Illustration: © PAIartist/shutterstock.com

 

38 Artikel zu „Low-Code“

84 Prozent der Firmen mit höchsten Unternehmensanforderungen verwenden Low-Code-Entwicklungen

Die von Forrester Consulting im Auftrag von Appian durchgeführte Umfrage untersuchte, wie die befragten Unternehmen ihre wichtigsten Applikationen über Low-Code-Plattformen erstellen und ausführen. Forrester stellte fest, dass für die meisten Organisationen die größte Herausforderung darin besteht, den Wandel zu einem digitalen Unternehmen zu vollziehen. Der Grund dafür: Ihnen fehlen die Fähigkeiten zur Entwicklung beziehungsweise Weiterentwicklung…

Vier Low-Code-Mythen behindern Low-Code-Einsatz

Das Low-Code-Konzept bietet viele Vorteile wie die schnelle und flexible Erstellung oder Modifikation von Applikationen. Etliche Unternehmen betrachten den Einsatz aber noch skeptisch, vielfach aufgrund von Vorurteilen. Vor allem vier vorherrschende Mythen verhindern die stärkere Low-Code-Nutzung noch.   Die Low-Code-Revolution hat längst begonnen. Strategisch denkende und innovative Unternehmen statten Fachabteilungen verstärkt mit entsprechenden Tools aus,…

Erstes komplett mit Low-Code umgesetztes Großprojekt erfolgreich abgeschlossen

Fischerei-Management-System für Bundesverwaltung mit 99,2 % Codegenerierung realisiert. Die Hersteller von Low-Code-Plattformen streben bekanntlich einen »Faktor 10« hinsichtlich der Effizienz der Softwareentwicklung an. Dies gilt meist für kleinere und mittlere Projekte. Dass die Low-Code-Technologie auch ideal für Großprojekte geeignet ist, beweist das von Scopeland Technology jüngst umgesetzte Projekt für die Bundesanstalt für Landwirtschaft und Ernährung…

Low-Code-Plattform – Benutzerfreundlich und schnell: Low-Code-BPM

Low-Code-Plattformen werden in der IT zunehmend für die schnelle Entwicklung von Unternehmensapplikationen genutzt. Aber auch für die Automatisierung und Optimierung von Geschäftsprozessen sind sie eine ideale Lösung und Alternative zu kostspieligen, komplexen BPM-Lösungen.

Das steht auf den Wunschzetteln von Entwicklern

Auch Entwickler haben zu Weihnachten so manchen Wunsch. Unter den zahllosen Briefen, die dieses Jahr wieder nach Lappland geschickt werden, sind auch viele Absendungen von Entwicklern. Mit einem Seufzer der Hoffnung und in froher Erwartung wenden sie sich an den Weihnachtsmann – und vertrauen ihm ihre lang gehegten und geheimsten Wünsche an. Der IT-Dienstleister Avision,…

Der IT-Innovationsflüsterer: Wie CIOs die Komplexität beherrschen können

Unter dem Strich ist heute jedes Unternehmen ein Softwareunternehmen, egal in welcher Branche, egal ob Global Player oder Mittelständler – eine gut verzahnte IT ist in den Unternehmensstrukturen nicht wegzudenken. Der Einfluss der Digitalisierung ist zwar teilweise noch subtil, doch für die Wertschöpfung und die Entwicklung neuer Geschäftsmodelle essenziell. Der Chief Information Officer (CIO) wird…

Neue Technologien verändern den Arbeitsplatz: Arbeitnehmern fordern Unterstützung von ihren Arbeitgebern

Laut einer Studie von Ricoh Europe sind Arbeitnehmer zuversichtlich, dass sie über die Fähigkeiten verfügen, die sie benötigen, um in ihrer beruflichen Laufbahn erfolgreich zu sein, erwarten aber auch, dass ihre Arbeitgeber ihnen helfen, sich an die sich verändernden Arbeitsbedingungen anzupassen. Die Studie stützt den neuen von Arup erstellten Bericht »Future of Work«, der untersucht,…

Zukunftsweisende Aufgabe des CIO: Digitalisierung im Unternehmen vorantreiben

Die Rolle des IT-Verantwortlichen hat eine Evolution hinter sich: Früher war er ausschließlich dafür zuständig, dass die Informationstechnik funktioniert und die Systemlandschaft sicher ist. Heute übernimmt er als Chief Information Officer (CIO) die strategische und operative Führung der Informationstechnik. Dabei hat er eine neue und zukunftsweisende Aufgabe: die Digitalisierung im Unternehmen vorantreiben. Um das zu…

Sechs Fragen rund um Multi-Cloud – Vorteile und Herausforderungen

Viele Unternehmen nutzen mehr als einen Public-Cloud-Anbieter. Man spricht hier von »Multi-Cloud«, als Abgrenzung zur Hybrid-Cloud. Was steckt hinter dem Trend? Welche Auswirkungen hat dies auf ein Unternehmen? Wann sollte mehr als eine Public Cloud genutzt werden und wann ist dies zu vermeiden? Rubrik, Anbieter von Multi-Cloud Data-Control, liefert heute Antworten auf sechs der häufigsten…

Low Code oder Pro Code: IT-Leiter müssen Brücken bauen

Die digitale Transformation und der wachsende Bedarf an Anwendungen erfordert, dass Unternehmen agiler werden und sich ständig anpassen. Daher müssen IT und Business enger zusammenarbeiten, um Kunden- und Geschäftswünsche möglichst schnell zu erfüllen und auch möglichst zu übertreffen. Dementsprechend ist die strategische Umstellung der Geschäftsprozesse auf Mobile- oder Browser-Anwendungen ein wichtiger Schritt. Dieser ist allerdings…

KI befeuert Meetings: Drei Gründe, warum künstliche Intelligenz kreative Teamarbeit fördert

Welche Aufgaben können KI-Technologien in Meetings übernehmen, um Mitarbeiter zu entlasten und mehr Raum für Ideen zu schaffen? An künstlicher Intelligenz führt kein Weg vorbei. Das haben mittlerweile auch die meisten Befragten einer internationalen Umfrage erkannt, die IDG im Auftrag von LogMeIn durchgeführt hat. KI-gesteuerte Kommunikationswerkzeuge spielen für Unternehmen der unterschiedlichsten Branchen demnach eine immer…

Homogene digitale Infrastruktur – Erfolgsfaktor Datenmanagement

$
0
0

Ein sorgfältig gepflegter Datenbestand in Kombination mit Business Intelligence, unterstützt durch künstliche Intelligenz, trägt wesentlich zum Gelingen der digitalen Transformation bei.

Daten haben sich als neue Währung im digitalen Zeitalter etabliert. Wer heute noch daran zweifelt, braucht lediglich einen Blick auf die Liste der weltweit größten börsennotierten Unternehmen nach Marktkapitalisierung zu werfen, die unter den Top 10 Amazon, Alphabet und Facebook führt [1]. 

Dementsprechend wichtig ist ein optimiertes Management dieser Daten, das äußerst komplex ist. Neben der Aufgabe, die Qualität der digital gespeicherten Informationen zu gewährleisten, müssen die Daten im Rahmen des Data Lifecycle Managements verwaltet, geschützt und gesichert werden. Darüber hinaus muss die Übereinstimmung mit gesetzlichen und branchenspezifischen Vorgaben zur Datenspeicherung und -nutzung garantiert und der nahtlose Zugriff auf die Daten für verschiedene Unternehmensbereiche und Prozesse sichergestellt werden. 

Bei der Bewältigung dieser Aufgaben sind bedeutende Hürden aufgestellt, die es zu überwinden gilt. Zu nennen sind beispielsweise die stetig wachsenden Datenvolumina (Stichwort Big Data), der technologische Fortschritt etwa in den Bereichen Automatisierung, Internet der Dinge, Data Science, maschinelles Lernen oder künstliche Intelligenz und die Veränderungen der Geschäftsmodelle in Hinblick auf die verstärkte Zusammenarbeit mit einer wachsenden Zahl an Partnern und Zulieferern. Diese Entwicklungen treffen in vielen Unternehmen auf Prozesse und Strukturen, die über viele Jahre etabliert wurden und sich bewährten. Unter den sich verändernden Voraussetzungen fehlen den Unternehmen jedoch die Flexibilität und Funktionalität, um die Wertschöpfung aus den digitalen Daten erfolgreich voranzutreiben.

Diese Situation als unüberwindbares Szenario wahrzunehmen, wäre allerdings eindimensional gedacht. Denn die digitale Disruption bietet für Unternehmen auch zahlreiche Chancen, für sich neue horizontale und vertikale Märkte zu erschließen oder innovative Services zu realisieren und zu vermarkten. Basis hierfür ist ein zukunftsfähiges Data Management, das die Technologien einsetzt, die heute zur Verfügung stehen. Ziel einer erfolgreichen digitalen Transformation muss es sein, alle Geschäftsprozesse einschließlich ihres Managements und ihrer Automatisierungsstruktur in eine homogene digitale Infrastruktur zu integrieren, die sich bedarfsgerecht erweitern lässt und offen für neue Entwicklungen und Technologien ist.

BI trifft auf KI – die Geschäftsanalytik lernt dazu. Grundsätzliche Aufgabe der BI-Lösungen ist es, die Informationen aus den für ein Unternehmen verfügbaren Daten mit unterschiedlichen Quellen zusammenzuführen und gezielt zu analysieren. Die konsolidierten und aufbereiteten Ergebnisse der Analyse von Finanz-, Betriebs- und Vertriebsinformationen können maßgeblich zum Geschäftserfolg beitragen. Sie können beispielsweise zur Unterstützung von Managemententscheidungen, zur Optimierung von Geschäftsabläufen, zur Steigerung der Wertschöpfung oder auch zur Risikominimierung eingesetzt werden.

Anders als Geschäftsrückmeldungen wie etwa Jahresabschlüsse oder Verkaufsberichte sind die von modernen BI-Lösungen erstellten Analysen nicht statisch, sondern geben jederzeit ein fundiertes Bild des aktuellen Status quo. Die entscheidenden Schnittstellen in Unternehmen werden daher zeitnah mit Informationen zu Veränderungen versorgt und können schnell und einfach nachvollziehen, ob diese auf kurzfristigen Modeerscheinungen oder grundsätzlichen Trends basieren. Damit erbringen Maßnahmen, basierend auf praxisnahen BI-Lösungen, durch die Möglichkeit einer stetigen Prozessoptimierung einen hohen Return on Investment (ROI). Unternehmen sind dadurch in der Lage zielgenauer auf sich immer schneller verändernde Märkte zu reagieren. 

Der Nutzwert und damit der ROI der BI lässt sich heute gerade dann potenzieren, wenn Lösungen zum Einsatz kommen, die sich künstlicher Intelligenz (KI) und maschinellem Lernen (ML) bedienen. KI wirkt dort, wo große Mengen unstrukturierter und strukturierter Daten auftreten, die manuell nicht mehr zeiteffizient erfasst werden können. Hier erlauben KI-basierte Systeme durch maschinelles Lernen mit statistischen Modellen eine weitaus spezifischere Unterstützung, wie am Beispiel eines KI-gestützten Verkaufsassistenten deutlich wird: In Echtzeit werden durch KI-Algorithmen Informationen bereitgestellt, die auf bisherigen Kundeninteraktionen basieren. Hierzu zählen etwa, zu welcher Uhrzeit potenzielle Neukunden angerufen werden sollten oder mit welcher Wahrscheinlichkeit eine bestimmte Abfolge an Handlungsschritten zum erfolgreichen Vertragsabschluss führt. 

Ein weiteres Beispiel für den sinnvollen Einsatz der KI ist die Erkennung von Anomalien. Spitzen, also Höchst- und Tiefstwerte, etwa in einer Vertriebsstatistik werden traditionell zwar im Rahmen eines Reports verzeichnet, sind zum Zeitpunkt der Berichtslegung aber bereits aufgetreten. Die Ursachen manuell zu eruieren kann Stunden oder gar Tage in Anspruch nehmen. KI-Prozesse sind dagegen in der Lage, Anomalien unmittelbar zu erkennen, um direkt darauf reagieren zu können. Zudem macht es eine vorausschauende KI möglich, proaktive Entscheidungen zu treffen, die dabei unterstützen, bevorstehende Anomalien zu kontrollieren und sie zum richtigen Zeitpunkt zu minimieren oder zu nutzen.

Beim Einsatz einer KI sollte berücksichtigt werden, dass sie nur dann werthaltige Informationen liefern kann, wenn sie über den Zugriff auf robuste Daten verfügt. Die Schöpfung dieser Daten kann beispielsweise aus CRM-Lösungen erfolgen, die stets gepflegt werden. Auch wenn jede KI vor der Bereitstellung mit einem umfangreichen Satz an Trainingsdaten angelernt wird, ist es die Ergänzung interner Daten, mit der die Wissensbasis der KI spezifisch an jedes einzelne Unternehmen angepasst wird. 

Daten bilden die Grundlage für die digitale Transformation eines jeden Unternehmens. Um Unternehmen erfolgreich zu transformieren, müssen sie dem ständigen Zuwachs an Daten mithilfe des Data Management eine Struktur geben und einer fortlaufenden Kontrolle und Pflege unterziehen. Diese Struktur erreicht man mit einem CRM-System, das die Verwaltung und Prüfung des Datenbestands entscheidend vereinfacht. Mit diesem gepflegten Datenbestand und mittels neuer Technologien wie KI und BI lassen sich Verknüpfungen herstellen, die für den Erfolg eines Unternehmens maßgeblich sind.



Sridhar Iyengar,
Managing Director Europe bei Zoho
[1] https://www.pwc.com/gx/en/audit-services/publications/assets/global-top-100-companies-2019.pdf

 

Illustration: © VLADGRIN/shutterstock.com

 

1387 Artikel zu „künstliche Intelligenz“

2020: Digitalisierung und künstliche Intelligenz sind Treiber im Markt für Business-Software

Fünf Haupttrends prägen die IT-Branche und den Markt für Business-Software laut der d.velop Herbstprognose 2020 in besonderem Maße. Seit fast einem Jahrzehnt wertet d.velop jedes Jahr die Daten und Informationen aus Kundenbefragungen, von Partnern und Mitarbeitern für eine interne Prognose aus. 2019 werden die Ergebnisse erstmals in Form der nun vorliegenden Herbstprognose mit fünf Haupttrends…

Künstliche Intelligenz in der Kommunikation: Wer nicht wagt, der nicht gewinnt

Heutzutage geht es im Marketing nicht nur darum, Kunden zu verstehen, um sie mit individuellen Botschaften erreichen zu können, sondern auch, dabei möglichst effizient zu sein. In diesem Kontext ist immer häufiger von künstlicher Intelligenz (KI) und Automatisierung die Rede. Erstaunlicherweise sind viele Unternehmen daran interessiert, KI zu nutzen, um mit Kunden, Partnern und anderen…

Neun von zehn Unternehmen investieren in künstliche Intelligenz

Eine höhere Produktivität der Mitarbeiter ist für Unternehmen der wichtigste Vorteil einer KI-Lösung. Die Mehrheit plant jedoch nicht, Arbeitsplätze zu streichen.   Mehr als 90 Prozent der Unternehmen verschiedener Branchen planen derzeit, in künstliche Intelligenz (KI) zu investieren. Den größten Vorteil (60 Prozent) von KI sehen sie in einer gesteigerten Produktivität ihrer Mitarbeiter. Das zeigt…

Künstliche Intelligenz in der Cybersicherheit

Warum eine einzige Größe nicht für alle passt – und warum der Mensch im Mittelpunkt eines guten Sicherheitsbetriebs stehen sollte. Das rasante Tempo, mit dem sich die künstliche Intelligenz (KI) in den letzten Jahren entwickelt hat, hat begonnen, in den verschiedensten Bereichen transformative Effekte zu erzielen. In einer zunehmend vernetzten Welt, in der Cyberangriffe in…

»Künstliche Intelligenz und die Automation des Entscheidens«

Was Technologien aus dem Umfeld künstliche Intelligenz (KI) können und wie sie Entscheidungen unterstützen – darüber berichteten und diskutierten Referenten und Teilnehmer der Fachkonferenz »Künstliche Intelligenz und die Automation des Entscheidens« des MÜNCHNER KREIS e.V. Durchgängiger Tenor: KI-Systeme verändern die Art und Weise, wie Menschen Entscheidungen treffen. Doch die Menschen entscheiden, wie und wofür sie…

Künstliche Intelligenz: Viel Potenzial, großes Misstrauen

Künstliche Intelligenz (KI) ist ein großer Hoffnungsträger: Mit der Technologie können Unternehmen ihre Abläufe effizienter, günstiger und besser gestalten, Fehler beheben, bevor sie Schaden anrichten und neue Geschäftszweige entwickeln. Immerhin setzt jedes zehnte Unternehmen aus Industrie und industrienahen Dienstleistungen KI bereits ein, zeigt eine neue Studie des Instituts der deutschen Wirtschaft (IW) [1]. Allerdings ist…

Die Abkehr von Bauchentscheidungen: Künstliche Intelligenz sorgt für Klarheit

Wenn es um wichtige Entscheidungen geht, wird oft das viel beschworene Bauchgefühl bemüht. Doch hilft es wirklich bei der Beurteilung von komplexen Sachverhalten oder sollten sich Entscheider lieber Hilfe bei innovativen Technologien basierend auf künstlicher Intelligenz (KI) holen?   Die sprichwörtliche Intelligenz des Unbewussten kommt oft ins Spiel, wenn es um wichtige Entscheidungen oder Einschätzungen…

Automatisiert extrahieren, konsolidieren und analysieren – Künstliche Intelligenz schafft Transparenz im strategischen Einkauf

Das Unternehmen Orpheus GmbH entwickelt -Spezialsoftware für den strategischen Einkauf internationaler Konzerne und gilt bei Chefeinkäufern (Chief Procurement Officer) aktuell als einer der weltweit innovativsten Anbieter. Nicht ohne Grund: Die Orpheus-Lösungen nutzen KI und Bots, um Daten zu Einkäufen, Produkten, Preisen und Anbietern aus verschiedensten Quellsystemen, Sprachen und Organisationseinheiten der Konzerne zu extrahieren, zu konsolidieren und zu analysieren. Diese neue Transparenz kann Konzernen Einsparungen in Millionenhöhe bringen. Die skalierbare Cloud-Infrastruktur für die Software und die sicheren Anbindungen an die datenführenden Quellsysteme der Konzerne stellt ein anderes Nürnberger Unternehmen: die noris network AG.

Automatisierung und künstliche Intelligenz: 7 Trends im Geschäftsreisemanagement

Kaum ein Lebensbereich, den die Digitalisierung nicht von Grund auf verändert, neu formiert und vereinfacht. Auch Geschäftsreisen profitieren von durch Automatisierung und künstlicher Intelligenz unterstützten Möglichkeiten. Ein Innovationsplateau ist nicht in Sicht. Vielmehr werden technologische Innovationen weiterhin die Art und Weise verändern, wie Geschäftsreisen geplant, gebucht und abgerechnet werden und auf Trips begleiten und unterstützen.…

KI befeuert Meetings: Drei Gründe, warum künstliche Intelligenz kreative Teamarbeit fördert

Welche Aufgaben können KI-Technologien in Meetings übernehmen, um Mitarbeiter zu entlasten und mehr Raum für Ideen zu schaffen? An künstlicher Intelligenz führt kein Weg vorbei. Das haben mittlerweile auch die meisten Befragten einer internationalen Umfrage erkannt, die IDG im Auftrag von LogMeIn durchgeführt hat. KI-gesteuerte Kommunikationswerkzeuge spielen für Unternehmen der unterschiedlichsten Branchen demnach eine immer…

ERP: Standardisierung, Automatisierung und Effizienzsteigerung – Standard für die digitale Zukunft

$
0
0

Digitalisieren ja – aber wie, womit und mit wem? Die österreichische KRAL GmbH sieht in einer standardisierten IT-Basis und der Kooperation mit einem kompetenten IT-Partner die Lösung.

Die 1950 gegründete KRAL GmbH im österreichischen Lustenau ist ein Familienunternehmen, das heute in dritter Generation geführt wird. KRAL entwickelt und produziert Schraubenspindelpumpen und Durchflussmesstechnik und bietet darüber hinaus kundenspezifische Lösungen für Anlagen, vom Engineering bis zur Inbetriebnahme und dem After Sales Service. Die Kunden kommen vorwiegend aus den Branchen Marine, Stromerzeugung, Öl und Gas, Maschinenbau und Chemie. Dazu gehören kleinere lokale Unternehmen ebenso wie weltweit tätige Industriekonzerne. Neben der Firmenzentrale in Lustenau gibt es ein Technisches Büro und Vertriebsnetz in Deutschland, einen Direktvertrieb in Frankreich und Polen sowie zwei weitere Standorte in den USA und China. Fertigung und Know-how bleiben ausschließlich im Stammhaus. KRAL arbeitet in zwei Business Units, Schraubenspindelpumpen und Durchflussmesstechnik, die nur auf Kundenauftrag produzieren. »Bei unseren Kunden genießen wir den Ruf, auch Sonderwünsche zu ermöglichen«, freut sich Thomas Blum, Operations Manager. 

Standard wegindividualisiert. Als ERP-System war bis 2018 Microsoft Dynamics NAV 2009 im Einsatz. Die Software war inzwischen so stark individualisiert, dass man kaum noch von einem Standard sprechen konnte. »Das wichtigste, das bei uns ganz oben auf der Agenda stand, war: Zurück zum Standard«, erinnert sich Thomas Düringer, IT-Manager. »Die Firma ist jetzt rund 70 Jahre alt und es gibt bei uns Prozesse, die sind fast genauso alt«, ist er sich bewusst. »Bei Microsoft wird man sich etwas bei den Standards gedacht haben und hat die Erfahrungen vieler Unternehmen einfließen lassen. Daher musste für uns ein großer Teil der Standardisierung in der Anpassung interner Prozesse bestehen«, ist der IT-Leiter überzeugt.

 

 

Als Partner für dieses Projekt entschied man sich 2016 für die Cosmo-Consult-Gruppe, Europas führenden Microsoft Dynamics Partner und weltweiten Anbieter von IT-Lösungen und Dienstleistungen für die Digitalisierung von Unternehmen. Das Ziel bestand in der Standardisierung, Automatisierung und Effizienzsteigerung aller Abläufe und man begann mit einem Reengineering und Update auf Microsoft Dynamics 2017. Auf die Implementierung der Branchenlösung cc|auftragsfertigung folgte ab April 2018 die Optimierung des ERP-Standards unter anderem durch eine Integration spezieller Cosmo-Consult-Produkte wie der taktorientierten Planung, dem Produktdatenmanagement und einem Webshop auf Basis von cc|e-commerce, in den man den Konfigurator aus der Auftragsfertigung integrierte. In der Konstruktion wurden als Pilotprojekt das ins Produktdatenmanagement integrierte Änderungswesen und der CAD-Konnektor eingeführt. 

Interne Effizienz gesteigert. Der Webshop vom Cosmo-Consult-Partner Sana Commerce ist Bestandteil von cc|e-commerce und wurde ohne Schnittstelle in das ERP-System integriert. Er soll durch den Konfigurator dafür sorgen, dass der Außendienst ein technisch und kaufmännisch einwandfreies Produkt ohne Umweg über das Stammhaus anbieten kann, denn alles im Konfigurator wurde bereits technisch und kaufmännisch geprüft und freigegeben. Der Vertreter wählt mit einer Checkliste die gewünschten Optionen aus und erhält so ein fertiges Produkt, bei dem der Verkaufstext sowie der Verkaufspreis automatisch generiert werden. »Damit haben wir unser Ziel erreicht, dass die Niederlassungen und der Direktvertrieb weltweit autonom arbeiten können«, so Düringer. 

Zudem dient der Webshop gleichzeitig als ERP-System im Internet. Über ihn kann man Belege erstellen oder einsehen, Zeichnungen, Rechnungen und Lieferscheine anzeigen und demnächst Sendungen mit Track-and-Trace verfolgen. Das entlastet den Innendienst, der Direktvertrieb wird gefördert und die variantenlastigen Produkte können einfach vom Vertreter bestellt werden, ohne dass man einen Techniker im Hintergrund braucht. »Vor allem die interne Effizienz konnten wir so von Beginn an deutlich steigern«, konstatiert Düringer, 

Change Management direkt im ERP. Das Änderungsmanagement wickelte man früher in Papierform ab. Alte und neue Zeichnungen druckte man aus und schickte sie durch die Abteilungen. Jede Abteilung konnte ihre Arbeit erst dann beginnen, wenn die vorige ihre Aufgaben erledigt hatte. Mit dem neuen, ins Produktdatenmanagement integrierten Change Management wird alles digital im ERP-System abgebildet. Änderungsvorschläge werden als Änderungsmitteilung direkt im ERP erstellt, anschließend von einem Techniker überprüft, bearbeitet und entweder angenommen oder abgelehnt. Bei Annahme wird ein Änderungsauftrag mit allen essenziellen Informationen erzeugt und an die zuständigen Abteilungen weitergeleitet. Dadurch verkürzt sich die Durchlaufzeit, jeder hat Zugriff auf den Status des Änderungsauftrags und alles ist im System nachvollziehbar dokumentiert. »Bei uns gibt es kein Schatten-ERP mit Excel-Tabellen mehr, sondern es steht alles für alle eindeutig im System«, erklärt Düringer und fährt fort: »Dieses Änderungsmanagement ist ein wichtiger Baustein unseres digitalen Wandels weg von der manuellen Steuerung des Unternehmens hin zur digitalen Steuerung.« 

 

 

Ebenfalls im Produktdatenmanagement integriert ist ein von Cosmo Consult neu entwickeltes Bindeglied vom CAD-System zu Dynamics 365 BC. Der Techniker kann nun im CAD-System seine vollständig konstruierte Pumpe per Knopfdruck ins ERP-System übertragen, das automatisch die entsprechende Stückliste für dieses Produkt generiert. In diesem Pilotprojekt trugen die Mitarbeiter von KRAL mit Anregungen und Änderungswünschen viel zum Entwicklungserfolg bei: »Wir konnten so die Geschwindigkeit erhöhen und die Fehlerquote minimieren. Das ist Effizienz auf die Spitze getrieben«, so Blum. 

Transparenz und smarte Konzepte. Ein weiteres Highlight ist die Produktionsplanung mit cc|top, einem Tool für die taktorientierte Planung. Bisher versuchte man, Aufträge über eine Plantafel oder andere klassische Systeme zu planen. »Das neue Tool hilft uns dabei, sowohl die zerspanende Fertigung als auch die Endmontage zu planen und zu steuern«, erläutert Blum. Es zeigt die Performance der einzelnen Anlagen und die Auslastung der Endmontage ebenso wie die Möglichkeiten, Aufträge einzuplanen, die Wettbewerber wegen zu langer Lieferzeiten nicht bedienen können. »Wir sehen genau: Wie sind Fertigung und Montage ausgelastet? Wo müssen wir andere Schichtmodelle einführen? Wir haben eine optimale Transparenz durch das Unternehmen, man kann genau sehen, wo es Potenziale gibt«, beschreibt Düringer die Vorteile.

Eine Optimierung der Durchlaufzeiten im Materialfluss erreicht ein fahrerloses Transportsystem, das seine Trigger vom ERP-System erhält, das die Kommissionierungen automatisch nach Fälligkeit auslöst. Dazu wird die Kommissionierung nachts automatisch angesteuert und die notwendigen Komponenten werden an die Kommissionierzellen geliefert, dem System zurückgemeldet, verbucht und der Lagerbestand aktualisiert. »Dieses smarte Konzept haben wir gemeinsam mit Cosmo erstellt«, erklärt Blum und fährt fort: »Wir haben eine Kommissionierung für die Fertigung, eine für die Montage, eine für Ersatzteile und eine für Blaulichtaufträge, also Expressaufträge, die Vorrang haben. Das sind vier unterschiedliche Varianten, die unter einen Hut zu bringen waren. Beratung, Konzept und Programmierung waren auch hier große Leistungen unseres IT-Partners.« 

Gemeinsam zum Erfolg. Die raschen Erfolge führt man bei KRAL nicht zuletzt auf die gute Zusammenarbeit mit dem IT-Partner zurück. »Wir reduzieren Cosmo nicht auf den Stellenwert eines banalen Dienstleisters oder ERP-Lieferanten. Wir sehen die Consultants auch als Sparringspartner für unsere eigenen Prozesse. Wir bekommen den Input, setzen ihn um und holen uns wieder Feedback. Die Consultants sind für uns keine Kümmerer, sondern wertvolle Unterstützer«, betont Düringer. Und auch Blum lobt die Zusammenarbeit: »Es gab natürlich Diskussionen über unterschiedliche Wege. Die kritische Beratung aber – etwa: macht lieber viele kleinere Schritte als wenige große – das hat uns im Projekt sehr unterstützt.« Das automatische Buchen von Eingangsrechnungen oder Lieferscheinen beim Scannen sowie weitere Module werden noch eingeführt. Auch die Vorbereitungen für den nächsten Releasewechsel beginnen bald. Natürlich mit demselben Partner, denn: »Nicht die Lieferung von Software, vor allem auch die kompetente Beratung bestimmt unsere Zukunft mit Cosmo Consult«, fasst IT-Leiter Düringer zusammen.


Volker Vorburg

 

Bilder: © KRAL GmbH

 

79 Artikel zu „Cosmo Consult“

Anzeige

 

Cosmo-Consult-Gruppe erfolgreich als Cloud Solution Provider gestartet

Die Cosmo-Consult-Gruppe, Europas größter Microsoft ERP-Partner, hat seit dem 30. Juni 2016 den Status eines Microsoft Cloud Solution Providers (CSP). Den ersten Erfolg konnte Cosmo Consult nun bereits vermelden: Die Q-railing Europe GmbH & Co.KG, Emmerich am Rhein, ein global agierender Entwickler und Produzent von modernsten Geländern und Zubehörteilen, implementierte die ERP-Lösung Microsoft Dynamics AX7…

COSMO 365 Marketplace: digitale Plattform für Business-Anwendungen aus der Cloud

Die COSMO CONSULT-Gruppe, internationaler Anbieter von End-to-End-Businesslösungen und führender europäischer Microsoft Dynamics-Partner, erweitert ihr Portfolio im Bereich Cloud-Solutions und Cloud-Services: Mit dem neuen COSMO 365 Marketplace steht Kunden und Interessenten ab sofort eine zentrale Transaktionsplattform für den Erwerb und Betrieb cloudbasierter Microsoft-Unternehmenslösungen sowie für eine Vielzahl an COSMO CONSULT- Produkten und Dienstleistungspaketen zur Verfügung.  …

Digitalisierung – Es ist mehr als die Umstellung von analog auf digital

Digitalisierung und digitale Transformation sind die Basis, auf der alles besser werden soll. Vor allem für mittelständische Unternehmen ist es jedoch nicht immer einfach, diesen Weg zu finden und zu gehen. Aber es gibt Helfer. Saskia Burns, Direktorin der Business Unit »Digital Business Consulting« verantwortet in der Cosmo Consult Gruppe weltweit die strategische Digitalisierungsberatung.

Mehrwert durch künstliche Intelligenz – KI kann man nicht kaufen

Künstliche Intelligenz ist eines der meistgenutzten Buzzwords unserer Zeit und viele schwärmen von den Möglichkeiten und Potenzialen, die sich daraus ergeben. Im Alltag vieler Unternehmen weiß man damit aber noch nicht so recht etwas anzufangen. Roland Abele, Geschäftsführer der Max-Con Data Science GmbH, einem Unternehmen der Cosmo Consult Gruppe, klärt auf.

Plattform ERP – Digitalisierung beginnt im Kopf

Wohin die IT-Reise im Jahr 2019 geht, stellt sich wohl jeder ein wenig anders vor, sei er CEO, CTO, CDO oder eines der vielen anderen Akronyme – nicht zu vergessen die Menschen, die in ihrer täglichen Arbeit mit Veränderungen klarkommen müssen. Aber es gibt Menschen, die aufgrund ihrer jahrelangen IT-Erfahrung und IT-Kompetenz eine geradezu visionäre Sicht auf die Zukunft haben. Uwe Bergmann, Vorstandsvorsitzender der Cosmo Consult Gruppe, gehört zu ihnen.

Ready to Use – Schnell und effizient in die ERP-Welt

Auf der diesjährigen Cebit in Hannover wählte die Initiative Mittelstand die Cosmo-Consult-Gruppe gleich zweimal in die Gruppe der Besten des Innovationspreises-IT 2016. Neben dem gemeinsam mit der Fraunhofer-Gesellschaft auf der Fachmesse präsentierten Industrie 4.0-Lösungsszenario zeichnete die Initiative Mittelstand auch das von Cosmo Consult entwickelte Konzept »Dynamics 365« aus.

Zulieferer Lenzkämper setzt auf ERP-Branchenstandard – Drahtbiegeteile im Sekundentakt

$
0
0

Als Automobilzulieferer muss Lenzkämper eine Vielzahl an Herausforderungen stemmen. So gilt es die eigenen Planungs- und Fertigungsprozesse im Griff zu haben und gleichzeitig die steigenden Anforderungen der OEMs zu erfüllen. Der Spezialist für Drahtformtechnik setzt hierfür auf den ausgereiften ERP-Branchenstandard PSIpenta.

Ohne Drahtbiegeteile wäre kein Auto komplett. Die Rede ist etwa von Gurtumlenkbeschlägen, Bremsseilhaltern oder Verzurrösen. Sie sind das Kerngeschäft der Lenz, Kämper GmbH & Co. KG – kurz Lenzkämper. Damit zählt das mittelständige, familiengeführte Unternehmen zur Riege der klassischen Automobilzulieferer, die weltweit Hersteller wie Volkswagen, Seat, Skoda, Audi oder BMW beliefern. Über 100 Mitarbeiter arbeiten heute an der Herstellung einzelner Drahtformteile. Dabei gehören zum Leistungsspektrum des Unternehmens inzwischen neben der technischen Beratung auch die Fertigung von komplexen Schweißbaugruppen und Hybridbauteilen. Auch sie werden als einbaufertige Komponenten direkt an die OEMs und zum Teil auch an Unternehmen anderer Industriesparten geliefert.

Ein zukunftstaugliches System. Selbstredend wuchs in der 90-jährigen Unternehmensgeschichte nach und nach die Bedeutung der Informationstechnologie, zumal Lenzkämper wie alle Zulieferer in besonderem Maße an die Restriktionen und Vorschriften der OEMs gebunden ist. Zuletzt nahm das Unternehmen das bevorstehende Ende des Wartungsvertrags seines alten ERP-Systems zum Anlass, in einer Risikoanalyse die aktuellen informationstechnischen Strukturen – etwa hinsichtlich der Zukunftsfähigkeit – zu überprüfen. »Die Ergebnisse in Sachen ERP-System waren eindeutig«, erinnert sich Herr Tacken, Leitung EDV bei Lenzkämper. »Unsere Lösung war in vielerlei Hinsicht an seine Grenzen gestoßen und konnte den wachsenden Anforderungen unserer Kunden, beispielsweise in Sachen Datenaustausch und Zertifizierungen, aber auch in Hinblick auf die erforderliche Flexibilität, Skalierbarkeit und Offenheit nicht mehr standhalten. Hinzu kommt, dass unser damaliger Partner ein recht kleines Systemhaus war, das uns nicht mehr die nötige Investitionssicherheit bot«, ergänzt Herr Lenz. 

Die Entscheidung zugunsten des ERP-Systems PSIpenta des Berliner Anbieters PSI Automotive & Industry hatte folglich verschiedene Gründe: »Wir wollten einen Branchenstandard, der sowohl funktional als auch technologisch alles mitbringt, was es einerseits für unsere internen Prozesse und andererseits für die Kommunikation mit den Herstellern bedarf. Und natürlich sollten unternehmensseitig die Strukturen für eine langfristige Zusammenarbeit gegeben sein«, so die kaufmännische Geschäftsführung. Funktional bedeutet das die Anbindung an die OEM-Portale, mobile Anwendungen, eine durchgängige Chargenverfolgbarkeit oder die Abbildung der geforderten Packstrukturen der OEMs. Ausschlaggebend war letztlich auch die Liste der PSI-Kundenreferenzen, auf der bereits zahlreiche, namhafte Automobilzulieferer stehen. 

OEM-Anforderungen im Griff. Über 50 der insgesamt 100 Mitarbeiter nutzen heute täglich das ERP-System, das die Abläufe eines gesamten Auftragsdurchlaufs unterstützt: Von der Anlage des OEM-Abrufs via EDI-Schnittstelle, über die Fertigung, Verpackung und den Versand bis hin zur Rechnungsstellung und der Bearbeitung von Reklamationen. 

 

 

Als klassischer Zulieferer sind für Lenzkämper vor allem jene Module und Strukturen von besonderer Bedeutung, die speziell für die Erfüllung der vielfältigen OEM-Anforderungen konzipiert sind. Dazu zählen die stringenten Vorgaben für die komplexen Packmittelstrukturen. Sie bestimmen unter anderem in welche Behälter wie viele Teile verpackt werden müssen, in wie vielen Ebenen eine Palette beladen werden darf, welche Trennmittel zu benutzen sind oder ob ein Deckel verwendet werden muss. Die Vorgaben werden in den Rahmenverträgen mit den Automobilherstellern definiert und können von Kunde zu Kunde beziehungsweise von Abruf zu Abruf variieren. Als Branchenspezialist für die Automotive-Branche bildet PSI diese Anforderungen mittels der sogenannten Packmittelverwaltung ab. Anhand der Produktions- oder Versandmengen errechnet das System den Bedarf an Packmitteln und löst entsprechende Anforderungen aus. »Zudem führen wir über dieses Modul pro Geschäftspartnerschaft ein sogenanntes Packmittelkonto, in dem der gesamte Bestand verwaltet wird, Umpackprozesse gesteuert werden und die geforderte Rückverfolgbarkeit der Waren bis zum Einzelpackstück gewährleistet ist«, beschreibt Holger Diedrich, EDV und Controlling bei Lenzkämper. »Heute haben wir immer eine ausreichende Stückzahl der geforderten Packmittel vorrätig. In der Vergangenheit sind wir hier manchmal ins Schwitzen gekommen. Insbesondere Reklamationen können nun deutlich schneller bearbeitet und Strafen reduziert beziehungsweise vollständig vermieden werden.« 

Transparenz als Basis für Optimierungen. Auch die internen Planungs- und Fertigungsprozesse steuert Lenzkämper via PSIpenta. Dabei ist das System inzwischen auch zum Enabler für Optimierungen geworden, indem es die nötigen Daten für Analysen liefert und auswertet. Idealerweise fertigt das Unternehmen Biegeteile in großen Losgrößen und legt nur drei bis vier Fertigungsaufträge im Jahr an. »Das wäre der Idealzustand. Denn das Umrüsten der Maschinen ist aufwändig – egal wie effizient alle anderen Prozesse sind«, beschreibt Diedrich. Tatsächlich kommen aber immer wieder auch kleinere Aufträge dazwischen, etwa durch Reklamationen. »Für eine schnelle Abarbeitung helfen natürlich ineinandergreifende Automatismen. Denn Verspätungen und Reklamationen sind in aller Regel mit Strafen belegt«, so Diedrich. 

Von Bedeutung ist auch die integrierte Auswärtsvergabe, mit der das Unternehmen etwa die externe Vergabe spezieller Oberflächenbehandlungen abbildet. Kommen jene Teile zurück, werden sie direkt in die Packmittelstruktur beziehungsweise kundengerecht in den Versand überführt. Deutlich effizienter sind zudem zahlreiche Abläufe durch die Nutzung der mobilen Erweiterungen des ERP-Systems. Sie ersetzen manch papiergebundenes Dokument, die ein oder andere noch händisch gepflegte Excel-Liste oder zusätzliche Wege. So kommen sowohl für die Materialentnahme als auch für Gutmengenmeldungen Handscanner zum Einsatz: »Wann immer wir heute Material aus dem Lager entnehmen, wird dieses einfach gescannt und automatisch auf den Auftrag gebucht«, beschreibt Judith Moos, Key-Userin der ersten Stunde. »Das Gleiche gilt, wenn ein Fertigungsauftrag abgearbeitet ist und in den Versand weitergeleitet wird. Diesen Prozess bezeichnen wir als Umlagerung, und auch hier kommen die Handscanner zum Einsatz«, ergänzt Moos. Nicht zuletzt lobt Diedrich das gut funktionierende Support-Portal und die Unterstützung der PSI-Berater. »Wir profitieren immer wieder vom Automotive-Know-how unserer Ansprechpartner, die eben nicht nur das eigene System kennen, sondern vor allem auch wissen, wie die OEMs ticken und auf welche VDA-Normen und Zertifizierungen vielleicht gerade wieder umgestellt werden muss«, betont Diedrich. 

Ein ERP-System für die Zukunft. Lenzkämper hat mit dem ERP-Standard PSIpenta ein System gefunden, mit dem es funktional und technologisch auch langfristig den Anforderungen seiner anspruchsvollen Kunden gewachsen ist. Denn neben der Abbildung aller geforderten, branchenspezifischen Funktionen, zählen für den Zulieferer vor allem die Skalierbarkeit, Offenheit und damit Investitionssicherheit des Systems.



Karsten Wette,
Divisionsleiter Automotive
bei PSI Automotive & Industry

 

Bilder: © Lenz, Kämper GmbH & Co. KG

Automation: Smart, Festo, smart!

$
0
0

Immer wenn die Produktion stillsteht, sinkt die Effizienz und die Kosten steigen. Ganz gleich ob in der Schüttgutindustrie, der Nahrungsmittel- und Getränkeherstellung oder dem pharmazeutischen Bereich. Festo will dem vorbeugen – mit digitalisierter Automation.

Foto: Festo (c)

Der weltweit führende Anbieter von Automatisierungstechnik und technischer Bildung richtet seine Produkte und Services auf die smarte Produktion der Zukunft aus – und baut dabei auch auf künstliche Intelligenz und maschinelles Lernen. 300.000 Kunden aus über 35 Branchen in mehr als 176 Ländern vertrauen auf die elektrischen und pneumatischen Antriebslösungen von Festo. Das Ziel des Unternehmens: Minimale Stillstandzeiten und damit mehr Produktivität durch eine präzise Vorhersage des Wartungsbedarfs einer Anlage – möglich macht das die Vernetzung der Maschinen und die Visualisierung von Daten entlang der gesamten Wertschöpfungskette. Drei Software-as-a-Service-Produkte (SaaS) sind schon gelauncht – weitere werden folgen. In Sachen Datenverfügbarkeit und Datensicherheit setzt Festo bei seinen digitalen Produkten auf die Microsoft Services der Cloud-Plattform Azure.

 

Die Herausforderung: Digitale Spielwiese mit absoluter Datensicherheit

»Die klassische Automatisierungspyramide ändert sich – aufgrund des Paradigmenwechsels löst sie sich mehr und mehr auf«, sagt Dirk Zitzmann, Product Management Digital Business bei Festo. »Heute sprechen wir noch von hierarchischen Strukturen – morgen von Netzwerkstrukturen. Deshalb sind wir schon seit dem Jahr 2016 in unserem Unternehmensbereich Digital Business auf der Suche nach smarten digitalen Lösungen mit Mehrwert, die die Produktivität unserer Kunden noch weiter steigern.« Das übergeordnete Ziel: Mehr Transparenz im Wartungsprozess und eine vorbeugende oder vorausschauende Wartung in produktionsfreien Zeiten. Denn gerade der ungeplante Stillstand von Produktionsanlagen führt zu enormen Kosten. Doch in vielen Unternehmen ist es ein weiter Weg von Papier und Stift zur vollständigen Digitalisierung von Produktionsabläufen und Steuerung. Es existieren viele Bedenken hinsichtlich des Schutzes der Firmendaten. Aufklärungsarbeit ist notwendig.

»Um unsere neuen Produkte zum Leben zu erwecken, wollten wir einen Umsetzungspartner, der visionäre digitale Services als Spielwiese zur Verfügung stellen kann und gleichzeitig den höchsten Standard an Datensicherheit gewährleistet«, so Dirk Zitzmann weiter. Für Festo war Microsoft der Partner des Vertrauens – den Ausschlag gaben die erfolgreiche Zusammenarbeit bei einer Vielzahl von Projekten und Microsofts umfassende Zertifizierungen und Services. »Wir möchten uns nicht mit Dingen wie Betrieb, Skalierung, Prozessorleistung oder Speicherplatz beschäftigen, sondern uns auf unsere Kernkompetenzen konzentrieren. Microsoft ist hier der perfekte Partner für uns.«

 

Fabrik- und Prozessautomatisierung

Mit Smartenance, Festo Dashboards und Projects hat Festo mittlerweile drei große digitale Produkte auf den Weg gebracht, die im Zusammenspiel für maximale Produktivität und Wettbewerbsfähigkeit in der Fabrik- und Prozessautomatisierung sorgen. »Wir haben den großen Vorteil, dass wir in unseren Werken unsere eigenen Produkte selbst im Einsatz haben und ausführlich testen können, bevor wir damit an den Kunden gehen. Damit haben die Anwendungen schon den ersten Test zur Alltags-Tauglichkeit überstanden«, erklärt Dirk Zitzmann. »Microsoft hat uns dabei hervorragend beraten und unterstützt, wie man die SaaS-Angebote sinnvoll aufsetzt, welche Überschneidungen sich bei den Produkten ergeben, und vor allem, wie sich die Angebote an die Gangrichtung des Unternehmens anpassen lassen.«

 

Die Lösung: Skalierbare, digitale Produkte als Software-as-a-Service

Festo hat ein eigenes IoT-Gateway für die Anbindung seiner Geräte an die Cloud entwickelt. Es sammelt über ein standardisiertes Kommunikationsprotokoll umfangreiche Informationen über den Status Quo von Produktionsanlagen und sendet sie in Azure – von der Temperatur der Sensoren bis hin zu Schaltvorgängen von Ventilen. Festo Dashboards visualisieren übersichtlich und intuitiv den Zustand von Komponenten. Diese Transparenz ist die Basis für eine vorbeugende Wartung – so lassen sich der Energieverbrauch der Anlagen überwachen, Fehler schnell diagnostizieren und die Verfügbarkeit der Produktion optimieren. Mit Customizing-Funktionalitäten und Überwachungsfunktionen, auch mit KI, erweitert Festo permanent das umfassende Lösungsangebot für seine Kunden.

 

Der Impuls für das digitale Wartungsmanagement mit Smartenance kam aus den Werken von Festo selbst: »Wir wollten den Prozess vereinfachen und digitalisieren, ohne ein schwer bedienbares ERP-System nutzen zu müssen – unsere Wartungspläne wurden nämlich meist von Hand erstellt und gepflegt«, erinnert sich Dirk Zitzmann. In der mobilen Smartenance-App für Smartphones und Tablets können Anlagenbediener oder Wartungsmanager den Wartungskalender aufrufen und sehen, welche Aufgaben vom Produktionsleiter zugewiesen wurden. Der wiederum erstellt die Aufgaben in der Web-Anwendung auf dem PC und teilt sie zu. Die Anlagenbediener erhalten in der App detaillierte Anweisungen mit Live-Fotos, Texten und sogar Messwerten. Durch die zukünftige Verknüpfung mit Dashboards und IIOT-Services (Industrial Internet Of Things) können direkt Informationen zur Fehler-Diagnose- und -Ursachenerkennung geliefert werden. Angaben zum Energieverbrauch und grafisch aufbereitete Verlaufsdaten sind ebenfalls abrufbar. So lassen sich Unregelmäßigkeiten frühzeitig erkennen und nötige Maßnahmen einleiten, noch bevor ein Ausfall auftritt. Die Daten werden zentral in der Cloud dokumentiert, sind dadurch weltweit verfügbar, können für Audits leicht abgerufen werden und schaffen mehr betriebliche Transparenz für Produktionsleiter und Bediener. Smartenance wurde gestaffelt in den Festo Betriebsanlagen ausgerollt und ist inzwischen europaweit erfolgreich im Einsatz.

Auch Projects von Festo basiert auf Microsoft Azure. Über die erste Life-Cycle-Management-Plattform werden detaillierte Informationen aller Anlagen-Komponenten organisiert, dokumentiert und sind damit jederzeit abrufbar. Diese Dokumentation macht Reparaturen oder Updates deutlich einfacher.

 

Festo plant aktuell ein digitales Logbuch für Maschinen und neue Analyseformen für unterschiedliche Bereiche. Microsoft ist bei der Ausweitung und auch beim Vertrieb der digitalen Dienste der Full-Service Partner von Festo. Dirk Zitzmann ist überzeugt: »Die Fabrik-Automatisierung wird dadurch um einiges flexibler, die Energieeffizienz steigt, Logistikprozesse werden enger verzahnt und die Wertschöpfungskette wird optimiert.«

]]

 


235 Artikel zu „Automation Industrie“

Studie: Daten-Turbo sorgt für nachhaltige Innovationen in Industrieunternehmen

So trägt die Digitalisierung zur Beschleunigung der Produktentwicklung und Steigerung der Innovationskraft bei. Immer kostengünstiger produzieren, zeitgleich aber innovative Produkte entwickeln – vor diesen Herausforderungen stehen heute viele Industrieunternehmen. Etablierte Produkte und Dienstleistungen werden zukünftig die Bedürfnisse von Konsumenten zudem nicht mehr erfüllen. Echte Innovationen sind gefragt, die auch in Zukunft Wettbewerbsfähigkeit versprechen. Die Digitalisierung…

Trends 2020: Hyperautomation und Smart Contracts als Game Changer

Mit dem stetigen Voranschreiten der digitalen Transformation in der Wirtschaft haben neue Technologien zur Automatisierung und Prozessoptimierung erfolgreich Einzug in Unternehmen gehalten. Der erste Schritt ist somit vollzogen, es müssen jedoch weitere Blickwinkel miteinbezogen werden, um den Weg der digitalen Transformation weiter erfolgreich zu beschreiten. Die Gartner Group hat in ihrem Thesenpapier »Top 10 Strategic…

IT-Automation liegt in der Praxis vorne

Vertrieb, Marketing und IT sind die Wunschkandidaten für Automatisierung. Der Einsatz von KI-Lösungen, maschinellem Lernen und RPA (Robotic Process Automation) im Rahmen von Automatisierungsinitiativen beschäftigt derzeit viele IT-Entscheider. Die SYSback AG hat auf der AItomation 2019 die Teilnehmer dazu aufgerufen, in einer Umfrage den Stand der Dinge in ihrem Unternehmen aufzuzeigen. Die nun vorliegenden Ergebnisse…

Robotic Process Automation: Drei Irrtümer gefährden RPA-Erfolg

Etliche Unternehmen implementieren derzeit RPA-Lösungen, der Erfolg bleibt aber vielfach aus. Gründe sind oft falsche Erwartungen und grundlegende Fehleinschätzungen. Bereits seit geraumer Zeit gibt es einen regelrechten Hype um RPA (Robotic Process Automation). Die viel zitierten Vorteile wie einfache, schnelle Bereitstellung und Entlastung der Mitarbeiter von Routinetätigkeiten haben dazu geführt, dass viele Unternehmen RPA-Lösungen implementieren.…

»Künstliche Intelligenz und die Automation des Entscheidens«

Was Technologien aus dem Umfeld künstliche Intelligenz (KI) können und wie sie Entscheidungen unterstützen – darüber berichteten und diskutierten Referenten und Teilnehmer der Fachkonferenz »Künstliche Intelligenz und die Automation des Entscheidens« des MÜNCHNER KREIS e.V. Durchgängiger Tenor: KI-Systeme verändern die Art und Weise, wie Menschen Entscheidungen treffen. Doch die Menschen entscheiden, wie und wofür sie…

Automatisierte Migrationsverfahren mittels Robotic Process Automation: Datenmigration leicht gemacht mit RPA

Datenmigration kann als das Übertragen von Daten von einem System oder einer Datenbank in ein anderes definiert werden. Die Auslöser für Datenmigrationsprojekte reichen von der Stilllegung von Altsystemen, über eine System-/Infrastrukturkonsolidierung bis hin zu Upgrades für die Unternehmensressourcenplanung (ERP). Geschäftsszenarien, die eine Datenmigration erfordern, sind in erster Linie Fusionen oder Übernahmen, bei denen ältere IT-Systeme…

Robotic Process Automation – Der Schlüssel zum Erfolg heißt Demokratisierung

Ihr volles Potenzial entfaltet RPA erst, wenn sie im großen Maßstab zum Einsatz kommt. Das lässt sich am besten erreichen, indem die Mitarbeiter mit ihren Ideen und Vorschlägen in die Automatisierung einbezogen werden. Eine RPA-Plattform sollte diesen demokratischen Ansatz unterstützen und von vornherein auf Skalierbarkeit ausgelegt sein.

Automobilindustrie auf dem Weg zu neuen Geschäftsmodellen und automatisierten Prozessen – Im Zentrum steht das Kundenerlebnis

Der Automobilsektor steht vor tiefgreifenden Veränderungen. Nur mit neuen Geschäftsmodellen und -prozessen kann es den Herstellern und Vertragshändlern gelingen, ihre Kunden wertschöpfend zu begleiten. Die künftigen Wachstumspotenziale der Automobilindustrie liegen im digitalen Ökosystem rund um die Mobilität.

Digital Workspace: Chancen und Ängste rund um die Einführung von Robotic Process Automation

Digitale Transformation bedeutet einerseits Effizienzsteigerung und Kostenminimierung, Kundenbindung, Wachstum sowie Wettbewerbsfähigkeit, andererseits fordert sie Modernisierung in den eigenen Reihen – sprich: die Ausstattung der Mitarbeiter mit neuen Technologien. Laut einer aktuellen Studie leben Unternehmen, die ihre Arbeitsplätze nicht mit zeitgemäßer Technik ausstatten, in Zeiten des Fachkräftemangels gefährlich, denn Angestellte wünschen sich heutzutage neben reibungslosen internen…

IT-Trends des Jahres 2019: DSGVO-Compliance, Privacy by Design, Multi-Faktor-Authentifizierung, BYOx-Security und Security-Automation

Studie: Digitalisierung ausbaufähig, intelligente Technologien im Kommen. Ihren Erfolg bei der Digitalisierung stufen Unternehmen in Deutschland, Österreich und der Schweiz wie im Vorjahr durchschnittlich als mittelmäßig ein [1]. Angesichts der großen Anstrengungen in diesem Bereich und der hohen Ausgaben für die Digitalisierung ist diese Bilanz ernüchternd. Als technologischer Trend zeigt sich, dass mehr als zwei…

Rollenfindung der KI in der Industrie

Die möglichst vollständige Digitalisierung der Wertschöpfungskette steht für die produzierende Industrie schon seit längerem ganz oben auf der Agenda. Eine selbstorganisierte und selbstständig lernende Produktionshalle ist die erklärte Zielvorstellung für die Industrie 4.0 – und immer neue Technologieinnovationen rücken sie in greifbare Nähe. Eine Studie des Berliner Instituts für Innovation und Technik (iit) im Auftrag…

Big Data killed the Radio Star? Wie künstliche Intelligenz die Musikindustrie beeinflusst

Schon immer war die Musikindustrie eine, die sich konstant weiterentwickelt und an die Gegebenheiten der Welt angepasst hat. Mittlerweile hat mit Streaming, Cloud Computing und Algorithmen eine neue Ära dieser begonnen. Künstliche Intelligenz hat nicht nur die Prozesse in der Branche revolutioniert, sondern hilft uns auch dabei, Musik auf eine neue Art und Weise wahrzunehmen…

Wie die vierte Industrierevolution Unternehmen grundlegend verändert

Die vierte Industrierevolution stellt sich den Herausforderungen eines zunehmend komplexer werdenden Supply Chain Managements (SCM), das gleichzeitig eine individuellere und flexiblere Produktion garantieren muss. Durch Digitalisierung und vernetzte Produktion entstehen intelligente Fabriken, die an Energie und Geschwindigkeit alles bisher Dagewesene in den Schatten stellen. Doch bis es so weit ist, müssen Unternehmen noch einige Hürden…


Berechtigungsmanagement: Compliance-Herausforderungen und ihre Lösungen

$
0
0

Unternehmen sind stets gefordert, ihre Zugriffsrechte auf IT-Systeme Compliance-gerecht zu organisieren. Wer darf was und zu welchem Zweck? Aufgrund ihrer Komplexität stoßen sie dabei häufig auf Probleme. Doch stringente Rollenkonzepte unterstützt von Software-Tools können helfen, das Berechtigungsmanagement sicherer zu gestalten und zugleich die Effizienz im Unternehmen zu steigern.

https://pixabay.com/de

Angenommen, ein Auszubildender tritt zu seinem ersten Arbeitstag an. Weil er viele Aufgabenbereiche kennenlernen soll, werden ihm großzügig Zugriffsrechte auf Dateien und Server eingeräumt. Nach einiger Zeit wechselt er die Abteilung und erhält auch hier weitere Zugriffsrechte, ohne dass die bisherigen Rechte deaktiviert wurden. Diese Praxis setzt sich fort, bis er nach seiner zweijährigen Ausbildung mehr Zugriffsrechte besitzt als sein eigener Chef. Das ist ein typischer Fall, der in der Praxis nicht selten vorkommt.

Rechtliche Compliance-Anforderungen

Eine solche Praxis ist nicht nur gegen jede Vernunft, sondern auch gegen Recht und Gesetz. Alle Unternehmen müssen in Sachen IT-Sicherheit und Datenschutz hohe Anforderungen erfüllen. Die Datenschutzgrundverordnung (DSGVO) schreibt beispielsweise vor, dass sie die »geeigneten technischen und organisatorischen Maßnahmen« treffen müssen, um personenbezogene Daten vor unbefugten Zugriffen zu schützen. Das betrifft die meisten gespeicherten Informationen, viele Systeme enthalten sensible Personal-, Finanz-, Kunden- oder Produktdaten. Daher müssen die Verantwortlichen gewährleisten, dass nur berechtigte Nutzer Zugriff erhalten und sie müssen die Einhaltung dieser Regeln auch nachweisen. Gelingt das nicht, drohen hohe Bußgelder.

Die DSGVO ist dabei nur eine Instanz, die ein revisionssicheres Berechtigungsmanagement vorschreibt, es gibt noch zahlreiche weitere Compliance-Richtlinien. Beispielsweise wird im BSI Grundschutzkompendium das Thema breit ausgefächert, ebenso in der Sozialgesetzgebung, wie man im SGB, Kapitel 10, nachlesen kann. Eine revisionssichere Verwaltung der Rollen und Zugriffsberechtigungen ist gesetzlich gefordert. Das Unternehmen muss also jederzeit lückenlos nachweisen können, wer welchen Zugriff bis wann erteilt hat und auf welcher Grundlage er dies tun durfte.

Schaden durch eigene Mitarbeiter

Die Anforderungen sind hoch — und sind dabei nicht nur Schikane: Unzureichendes Zugriffsmanagement kann Organisationen enormen Schaden zufügen, denn die eigenen Mitarbeiter sind der höchste Risikofaktor für die IT-Sicherheit, beispielsweise indem sie versehentlich Trojaner ins Unternehmen einschleusen oder Daten stehlen. Die jüngste Cybersicherheitsstudie von SolarWinds hat ergeben, dass interne Benutzerfehler in den letzten 12 Monaten mit 80 Prozent den weitaus größten Anteil an Cybersicherheitsvorfällen in Deutschland ausgemacht haben. Nicht nur wegen der Gesetze sollten Organisationen daher ein stringentes und effektives Berechtigungsmanagement betreiben, sondern, weil es sinnvoll ist und ihnen hilft, besser zu arbeiten.

In der Praxis stellt das Berechtigungsmanagement Organisationen vor keine geringen Herausforderungen. An einer Lösung sind schon so manche IT-Leiter und Sicherheitsmanager schier verzweifelt. Die Gründe dafür sind vielgestaltig wie die gesamte Materie: Laufende Betriebe sind permanenten Erweiterungen, Verschiebungen, Zusammenlegungen, sprich Wandel unterworfen. Zugleich arbeiten sie mit mehreren Generationen an Alt-Systemen und haben es dabei in den allermeisten Fällen mit großen Mengen an sicherheitskritischen, personenbezogenen Daten zu tun.

Ist es schon aufwändig genug, sämtliche Zugriffsrechte in einer Firma zu bestimmen, ist es ungleich aufwändiger, diese Festlegung jederzeit auf dem aktuellen Stand zu halten und einem Revisor klar nachvollziehbar Rechenschaft darüber abzulegen. Händische Verfahren führen dabei schnell an Grenzen. Häufig wird beispielsweise das Ticketsystem des IT-Supports für das Nachvollziehen von Zugriffsentscheidungen missbraucht, mit fragwürdigem Erfolg. Hinzu kommt die Ungewissheit, wo die Verantwortung für das Thema in der Organisation verankert ist. Sache der IT mag die Organisation der Zugriffe sein, verantwortlich für die Zugriffserteilung ist aber in der Regel die Fachabteilung und dort derjenige, der hauptverantwortlich für die Daten ist, um die es in seiner Abteilung geht.

Die Basis bildet das Berechtigungskonzept

Wie lässt sich das Dilemma lösen? Den wichtigsten Schritt haben die meisten Unternehmen schon getan, indem sie die Zugriffsrechte über ein stringentes, schriftlich fixiertes Berechtigungskonzept entwickeln. In ihm werden Zugriffsregeln für einzelne Benutzer oder Benutzergruppen auf IT-Systeme und deren Daten festgelegt. Zudem sind dort alle Prozesse hinterlegt, die die Umsetzung des Berechtigungskonzepts betreffen, also beispielsweise das Löschen und Erstellen von Nutzern, oder Passwortrestriktionen. Hier werden die Rollen definiert, denen Berechtigungen erteilt oder entzogen werden können. Denn die Zugriffe werden nicht mehr für einzelne Personen erteilt, sondern einer Person wird eine Rolle zugewiesen, die wiederum bestimmte Zugriffsrechte hat. Ändert sich der Status der Person, wird ihr eine andere Rolle zugewiesen, mit automatischem Zugriff auf die dafür notwendigen Systeme. Gleichzeitig verliert sie die alte Rolle und damit sämtliche Zugriffsrechte, die mit ihr verbunden sind.

So weit so gut. In der Praxis ergeben sich daraus jedoch immer noch einige Herausforderungen, die den schnellen Veränderungen im Unternehmen geschuldet sind. Neue Abteilungen kommen hinzu, die Stellenbeschreibungen ändern sich und damit die Rollen, neue Administratoren setzen das Berechtigungskonzept falsch um — viele Faktoren tragen dazu bei, dass das Dokument schnell wieder obsolet wird. Das Einpflegen der Änderungen in die Dokumentation funktioniert vielleicht anfangs noch, fällt aber zwangsläufig einer steten Auflösung zum Opfer. Das ist für die Beteiligten extrem frustrierend.

Prozesse automatisieren

Um hier für entscheidende Erleichterung zu sorgen, ist ein leistungsstarkes Datenbank-Werkzeug notwendig. Dieses Tool sollte beispielsweise sämtliche Änderungen in Echtzeit umsetzen können, Prozesse automatisieren, Entwicklungen jederzeit ohne Aufwand revisionssicher dokumentieren und auch von Nicht-IT-Mitarbeitern leicht zu nutzen sein.

Typische Herausforderungen des Berechtigungsmanagements ließen sich dadurch leichter und effizienter bewältigen. Das eingangs erwähnte Problem des Auszubildenden, der Zugriffsrechte ansammelt, lässt sich beispielsweise mit Hilfe eines solchen Datenbank-Tools dahingehend lösen, dass der Auszubildende von vornherein zeitlich beschränkten Zugriff auf die für die Arbeit in einer Abteilung benötigten Systeme erhält. Diese Beschränkung ließe sich schon mit der Rollenzuweisung des Auszubildenden einmalig festlegen und dokumentieren.

Die zeitliche Limitierung von Zugriffsrechten kann in vielen anderen Fällen helfen, das Management zu erleichtern und Compliance zu erreichen. Beispielsweise arbeiten große Unternehmen häufig mit externen Beratern zusammen, die ein zeitlich begrenztes Mandat haben und in dieser Zeit bestimmte Rollen und damit Zugriffsrechte benötigen. Bei einem kleinen Stab von einer Handvoll Externen mag sich das noch leicht händisch organisieren lassen. Doch gibt es auch Großprojekte, wo die Zahl in die hunderte gehen kann. Hier ist eine manuelle Verwaltung überfordert, eine Automatisierung via Zeitschaltung regelt die Sache von selbst. Ähnlich liegt der Fall bei alltäglichen Prozessen wie Mutterschaftsvertretungen oder für zeitlich begrenzte Lehraufträge in Universitäten.

Das Problem der Überprivilegierung von Benutzern — versehentlich oder aus Prestige-Gründen — ließe sich mit Datenbank-Tool-Unterstützung ebenfalls leichter bekämpfen, einfach weil die Zugriffsrechte transparenter sind und besser kritisch hinterfragt werden können. Beispielsweise gibt es heute keinen Grund, warum ein Nutzer per se Zugriff auf sämtliche Systeme haben sollte (All-domain). Das All-Domain-Recht birgt fast nur Risiken und keine Vorteile. Selbst der CEO ist vor menschlichen Fehlern nicht gefeilt — begeht er sie aber als jemand, der Zugriff auf alle Systeme hat, dann gefährdet er damit auch alle Systeme. Und es ist schon vorgekommen, dass ein All-domain-Rechteinhaber ein infiziertes PDF geöffnet hat, woraufhin sich ein Trojaner dank seines totalen Zugriffs in sämtlichen Systemen ausbreiten und über Monate vertrauliche Daten aus dem gesamten Unternehmen ins Ausland verschicken konnte. Mit Hilfe eines Datenbank-Tools ließen sich solche Vorfälle im Vorfeld vermeiden oder auch im Nachgang forensisch nahtlos aufklären — das Ticketsystem könnte das nicht leisten.

Einfache Verwaltung und höhere Effizienz

Die Zugriffsrechte von Mitarbeitern mit mehreren Rollen im Unternehmen lassen sich so besser verwalten — einfach, indem die Rollen addiert werden. Ein Abteilungsleiter in der IT betreut beispielsweise noch einige Legacy-Systeme. Also hat er zwei Rollen inne, für die er die jeweiligen Zugriffe erhält. Wird der Mitarbeiter versetzt oder bekommt er neue Aufgaben, ändert sich auch seine Rollengruppe und damit seine Rechte. Mit Hilfe eines Datenbank-Tools ließen sich derartige Vorgänge durch zwei, drei Mausklicks erledigen.

Die wenigen Beispiele zeigen, welchen Effizienzgewinn eine Datenbanklösung plus Prozess-Management-Software im gesamten Berechtigungsmanagement bringen kann. Es gibt bereits Lösungen auf dem Markt, um diese und weitere Funktionen zu erfüllen. Mit ihnen lassen sich beispielsweise Benutzerberechtigungen für alle Arten von File-Servern analysieren und managen (von SharePoint bis SAP/R3), Risiken erkennen und beseitigen (zum Beispiel bei Überprivilegierung) und Compliance-sichere Berichte per Mausklick bereitstellen. Viele der Bereitstellungsprozesse sind dabei hochgradig automatisiert, was das Zugriffsmanagement beschleunigt und fehlerresistenter macht. Zudem bieten die Lösungen mitunter einfach zu bedienende Self-Service-Funktionen.

Auch aus den gefürchteten Audits lässt sich durch sie Druck aus dem Prozess nehmen, da der Auditor — in der Regel mit den Tools vertraut — sehr genau weiß, welche Informationen er benötigt und wie er schnell an sie gelangt — mitunter per Mausklick. Das erspart den IT-Verantwortlichen böse Überraschungen hinsichtlich der Kosten für das Audit. Denn wenn der Auditor sich vier Wochen lang durch einen Stapel Papierausdrucke kämpfen muss, um das Zugriffsmanagement nachzuvollziehen, wächst dessen Aufwand beträchtlich. Das schlägt sich dann auf der Rechnung nieder — so kann der Posten alleine einen fünfstelligen Betrag ausmachen. All das erspart ein effizientes Software-Tool.

Angesichts der zunehmenden Komplexität und der wachsenden Änderungsgeschwindigkeit brauchen Behörden automatisierte Lösungen dieser Art, anders werden sie der Herausforderung Berechtigungsmanagement nicht mehr Herr.

Sascha Giese, Head Geek bei SolarWinds

 

Webbasierte Applikationen mit PaaS umsetzen: Wie agile Entwicklung auf der SAP Cloud Platform gelingt

Die »SAP Cloud Platform« bietet die Voraussetzungen, um neue Anwendungen agil zu entwickeln, zu testen und Lösungen zu integrieren. Die folgenden Schritte helfen Unternehmen bei der Umsetzung ihrer Projekte. ERP-Systeme sind in vielen Unternehmen unverzichtbar für die Stabilität der Kernfunktionen, – die Entwicklungsumgebung der Zukunft sind sie nicht. Eigenentwicklungen und Innovation finden mehr und mehr…

Identity Governance and Administration: IGA messbar machen – in 5 praktikablen Schritten

  Die meisten Unternehmen verzichten darauf zu messen, wie effektiv ihre Identity-Governance-and-Administration-Lösung (IGA) tatsächlich ist. Falls sie es doch tun, dann wahrscheinlich über eine indirekte Messgröße, zum Beispiel indem man erfasst, wie hoch das Risiko einer Datenschutzverletzung ist oder ob bereits ein Angriff stattgefunden hat oder nicht. Um die komplexe Betrachtung für unsere Zwecke zu…

Modernes Output Management für Rechenzentren

Rechenzentren großer Unternehmen haben zumeist eine Mainframe-Landschaft, bestehend aus IBM-Systemen. Für deren Management und Optimierung gibt es spezielle Softwareprodukte wie die des Berliner Herstellers Beta Systems Software AG. Im Zuge der Digitalisierung steigen die Anforderungen an solche: Sie müssen einfach zu bedienen sein, hohe Sicherheit bieten, mit neuen Web- oder Cloud-Lösungen integrierbar und dabei noch…

Automatisiertes Identity- und Accessmanagement (IAM): Die vier entscheidenden Vorteile

Je weiter die Digitalisierung voranschreitet, desto bedrohlicher werden Datenpannen und Compliance-Verstöße für Unternehmen. Kein Wunder also, dass das Thema IT-Sicherheit auf den Prioritätenlisten weit oben steht. Ein entscheidender Schritt ist dabei automatisiertes Identity- und Accessmanagement (IAM). Der globale Marktwert von IAM-Systemen ist von 4,5 Milliarden Dollar im Jahr 2012 auf 7,1 Milliarden Dollar im Jahr…

IT-Sicherheit: Unternehmen planen Budgetoffensive gegen digitale Sorglosigkeit

Jedes vierte Unternehmen in Deutschland kämpft mit dem Problem knapp bemessener Budgets für IT-Sicherheit. Bedarf besteht bei der Sensibilisierung der Mitarbeiter und bei der Rekrutierung von IT-Sicherheitsspezialisten. Das soll sich bis 2021 ändern. Mehr als die Hälfte der Entscheider (56 Prozent) erwarten für die kommenden drei Jahre eine Steigerung des Budgets. Jeder vierte Manager geht…

Gravierende Sicherheitsrisiken bei vernetzten Industrieanlagen

Schwachstellen in Funkfernsteuerungen haben schwerwiegende Auswirkungen auf die Sicherheit. Ein neuer Forschungsbericht deckt schwere Sicherheitslücken bei industriellen Maschinen auf. Anlagen wie Kräne, die mittels Funkfernsteuerungen bedient werden, sind vor potenziellen Angriffen wenig bis gar nicht geschützt. Damit stellen sie ein hohes Sicherheitsrisiko für Betreiber und ihre Mitarbeiter dar.   Trend Micro veröffentlichte einen neuen Forschungsbericht,…

IT-Security für Industrie 4.0 – Ganzheitlicher Ansatz für mehr Sicherheit

Industrie 4.0 wird in deutschen Unternehmen immer mehr zur Realität. Voraussetzung für den dauerhaften Erfolg ist das Vertrauen aller Partner in die zunehmende industrielle Vernetzung. Das Thema IT-Security avanciert damit zum Schlüsselfaktor für die Digitalisierung. Welche Aspekte sind zu beachten, um Maschinen und Daten vor Angreifern zu schützen?

Der IT-Security-Markt legt bis 2020 um mehr als 15 Prozent zu

Um durchschnittlich mehr als sieben Prozent jährlich wächst der deutsche IT-Security-Markt in den kommenden zwei Jahren. Von 2018 bis 2020 soll er von insgesamt gut 5,7 Milliarden Euro auf fast 6,6 Milliarden Euro zulegen. Das entspricht einem Plus von mehr als 15 Prozent. Dies prognostiziert der  Anbietervergleich »ISG Provider Lens Germany 2019 – Cyber Security…

Access Governance: DSGVO-konformes IT-Access-Management

Im Fall von Zugriffsberechtigungen in der IT lassen sich die Anforderungen der DSGVO durch den Einsatz einer geeigneten Software schnell und einfach erfüllen. Eine entsprechende Lösung analysiert und kontrolliert die Mitarbeiterberechtigungen innerhalb eines Unternehmens und bringt Transparenz. Auf diese Weise deckt die Software das Risiko fehlerhafter Berechtigungen auf und erschwert den Missbrauch von Überberechtigungen.

Best Practice Tipps für erfolgreiches Customer Identity and Access Management

Identity and Access Management gilt heutzutage als sichere Alternative zum Passwort als Authentifizierungsmethode. Neben Sicherheit spielt aber auch die Nutzererfahrung eine wichtige Rolle. Mit diesen sechs Tipps sorgen Anbieter für optimale Customer Experience und damit zufriedene Kunden. Ein essenzieller Bestandteil der digitalen Transformation ist die Absicherung kritischer Daten. Viele Unternehmen setzen hierzu auch heutzutage noch…

So sicher sehen IT-Entscheider die digitale Transformation

Studie untersucht den Zustand von sicherem Identity- und Access Management in Unternehmen im Rahmen der digitalen Transformation. Identity- und Access Management (IAM) ist im Rahmen der digitalen Transformation eine zentrale Lösung für Unternehmen. Zu diesem Ergebnis kommt der Report »The State of Identity & Access Management for the Digital Enterprise 2016«

Online-Shopper jagen nach Rabatten – und fordern mehr Umweltschutz

$
0
0
  • Für 8 von 10 Internetkäufern sind günstige Preise ein wichtiges Kaufkriterium
  • Die jungen Online-Shopper setzen vor allem auf das Smartphone
  • Jeder neunte Online-Kauf wird wieder zurückgeschickt

 

Viele Händler locken mit Rabatten – vor allem im Netz. Damit dürften sie Erfolg haben, immerhin geben 77 Prozent der Online-Shopper in Deutschland an, bei der Shop-Wahl zuallererst auf den Preis zu achten. Vor allem die jungen Online-Shopper halten nach Schnäppchen Ausschau: Für 81 Prozent der 16- bis 29-Jährigen ist der Preis das entscheidende Kriterium. Das hat eine repräsentative Befragung im Auftrag des Digitalverbands Bitkom unter 1.087 Internetnutzern ab 16 Jahren ergeben [1].

Für 35 Prozent sind demnach außerdem Rabattaktionen ausschlaggebend (16- bis 29-Jährige: 44 Prozent). 46 Prozent aller Online-Shopper sind bereit, ihre Daten für Rabatte zur Verfügung zu stellen – und mehr als jeder Zweite (54 Prozent) unter den 16- bis 29-Jährigen.

»Handels-Aktionstage wie Black Friday und Cyber Monday bilden mittlerweile auch in Deutschland den Auftakt zum Weihnachtsgeschäft. Händler können in den nächsten Tagen auf deutlich höhere Umsätze hoffen – und Kunden auf Rabatte«, sagt Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder.

Jeder Zweite shoppt mit dem Smartphone

Ob zu Hause auf dem Sofa oder beim Warten auf die Bahn: Mehr als jeder zweite Online-Shopper (52 Prozent) kauft mittlerweile mit seinem Smartphone ein. Mobile Shopping hat sich in den vergangenen fünf Jahren (2014: 20 Prozent) mehr als verdoppelt und ist heute fast so verbreitet wie der Kauf per Laptop (57 Prozent). Die jungen Online-Käufer sind besonders mobil: 81 Prozent der 16- bis 29-Jährigen gehen mit ihrem Smartphone auf Shoppingtour, bei den Älteren setzen 36 Prozent der 50- bis 64-Jährigen auf das mobile Shopping-Erlebnis – und 14 Prozent der Generation 65 plus. »Online-Shops müssen auf mobile Endgeräte wie Smartphones zugeschnitten sein, wenn Sie künftig Erfolg haben wollen«, betont Rohleder.

Insgesamt kaufen 94 Prozent aller Internetnutzer ab 16 Jahren im Netz ein – das entspricht 55 Millionen Bundesbürgern. Jeder dritte davon (34 Prozent) tut dies mindestens einmal in der Woche. Rohleder: »Online-Shopping ist für viele mittlerweile so alltäglich wie der Gang in ein stationäres Geschäft.«

 

Die Top 10 der gefragtesten Produkte beim Online-Kauf 

Zu den gefragtesten Produkten im Internet zählen Kleidung, Schuhe und Accessoires: 93 Prozent der Online-Shopper geben an, diese Waren zu erwerben. Elektronische Haushaltsgeräte folgen mit 81 Prozent auf dem zweiten Platz, Bücher beziehungsweise Hörbücher (79 Prozent) auf dem dritten Rang. Dahinter liegen mit 72 Prozent Kosmetikartikel, Parfum und Pflegeprodukte, Möbel kommen auf 71 Prozent, Smartphones auf 69 Prozent, Computer auf 67 Prozent. Medikamente bestellen 65 Prozent der Online-Shopper im Netz. Mit 63 Prozent liegen Heimwerkerbedarf und Software mit 63 Prozent auf Platz 9 und Platz 10. 33 Prozent der Online-Shopper kaufen Erotik-Artikel im Internet. 14 Prozent haben dort schon einmal ein Auto erworben.

 

Junge Frauen schicken am häufigsten Pakete wieder zurück

Rund 11 Prozent aller im Internet bestellten Waren werden jedoch wieder zum Händler zurückgeschickt. Mehr als jede fünfte Internetshopperin (22 Prozent) gibt an, manchmal oder sogar regelmäßig mit der Absicht zu bestellen, die Ware wieder zurückzuschicken – etwa, wenn es um Kleidung in mehreren Größen geht. Bei den Männern sind es 17 Prozent. »Im Online-Handel lassen sich Retouren nicht vermeiden. Es handelt sich um ein Verbraucherrecht, wonach Kunden innerhalb bestimmter Fristen vom Vertrag zurücktreten und die Ware zurückschicken können«, betont Rohleder. »Für die Anbieter bedeuten Retouren einen entgangenen Umsatz und verursachen Personal- und Prozesskosten. Und für die Umwelt bedeuten sie eine zusätzliche Belastung. Alle können etwas dafür tun, Retouren zu vermeiden. Die Shop-Betreiber durch möglichst authentische und aussagekräftige Produktbeschreibungen und die Verbraucher durch ein bewusstes Einkaufsverhalten. »

 

84 Prozent sagen: Die Kartons sind für die Produkte oft viel zu groß

Tatsächlich beeinflusst der Klimaschutz die meisten Online-Shopper – die Frauen dabei tendenziell etwas stärker als die Männer: 59 Prozent der weiblichen und 55 Prozent der männlichen Online-Shopper geben an, angeregt von der öffentlichen Debatte um den Klimawandel seltener Retouren zu verursachen. Dennoch gilt aktuell, dass Frauen mit 13 Prozent einen größeren Teil ihrer Bestellungen zurückschicken als Männer mit 9 Prozent. Die jungen Online-Shopperinnen von 16- bis 29 Jahren sorgen mit 16 Prozent für die meisten Rücksendungen, Männer ab 50 Jahren weisen mit 5 Prozent die niedrigste Retourenquote auf.

Jeder vierte Online-Shopper (24 Prozent) und sogar fast jede dritte Online-Shopperin (30 Prozent) sagen, aus Gründen des Klimaschutzes grundsätzlich weniger im Internet zu bestellen. Auch eine ethische Komponente ist beim Online-Kauf zunehmend wichtig: So sagen 55 Prozent der Männer und 67 Prozent der Frauen, es sei ihnen wichtig, wo und unter welchen Umständen ein Produkt hergestellt wurde. 48 Prozent der Online-Shopper und 57 Prozent der Online-Shopperinnen geben an, für eine umweltfreundliche Verpackung einen Aufpreis in Kauf zu nehmen. Doch auch die Händler seien in der Pflicht: 9 von 10 Internetkäufern (92 Prozent) fordern, möglichst viele Produkte in denselben Karton zu packen. 84 Prozent monieren, die Kartons seien für die einzelnen Produkte oft viel zu groß. 70 Prozent fühlen sich von dem vielen Verpackungsmüll gestört.

 

Jeder Zweite sieht in Voice Commerce die Zukunft

Viele Internetnutzer machen sich um den stationären Handel in Einkaufszentren und Fußgängerzonen Sorgen: 75 Prozent meinen, der stationäre Handel müsse sich neu erfinden und 68 Prozent, dass er mit den günstigen Preisen im Internet nicht mithalten kann. 58 Prozent glauben aber auch, dass der stationäre Handel mithilfe digitaler Technologien einzigartige Einkaufserlebnisse schaffen kann. Befragt nach der Zukunft des Einkaufens im Jahr 2030 sehen viele Internetnutzer einen gestiegenen Komfort – sowohl online als auch offline. So meinen 59 Prozent, dass sich viele Waren wie Kleidung oder Möbel Zuhause per Virtual Reality testen lassen. Ebenso viele gehen davon aus, dass Kassen aus Läden verschwinden werden und der Bezahlvorgang beim Verlassen des Geschäfts automatisch abläuft.

Mehr als jeder Zweite (55 Prozent) ist der Ansicht, dass das Shoppen mit einem digitalen Sprachassistenten wie Alexa, Siri oder Google Home verbreitet sein wird. Aktuell sind sie aber kaum im Einsatz: Gerade einmal ein Prozent der Online-Shopper nutzt eines dieser Geräte beziehungsweise Systeme zum Einkauf. »Entscheidend wird sein, ob es den Online-Händlern gelingt, den Einkauf per Sprachassistent komfortabel und einfach in der Anwendung zu machen«, sagt Rohleder. »Nur dann kann sich Voice Commerce als echte Alternative zum Shopping per Klick etablieren.«

 

[1] Hinweis zur Methodik: Grundlage der Angaben ist eine Umfrage, die Bitkom Research im Auftrag des Digitalverbands Bitkom durchgeführt hat. Dabei wurden 1.087 Internetnutzer ab 16 Jahren, darunter 1.024 Online-Käufer, befragt. Die Umfrage ist repräsentativ.

 

1050 Artikel zu „E-Commerce“

Augmented Reality und E-Commerce – neue Marketing-Potenziale für Videocontent

Bereits heute gibt es viele Unternehmen, die Augmented Reality (AR) im E-Commerce nutzen. Was aber denken Verbraucher über solche Anwendungen? Im Bereich von Unterhaltungsfernsehen, Sport TV oder Shopping zeigen gegenwärtig 40 Prozent der Konsumenten eine große Begeisterung für video-triggered AR. Dabei handelt es sich um eine Variante von AR, bei der der Nutzer seine Smartphone-…

E-Commerce: Bad-Bot-Angriffe auf dem Vormarsch

Der Bericht mit dem Titel »How Bots Affect E-Commerce« wurde vom Imperva Bot Management Threat Research Team (ehemals Distil Research Lab) entwickelt und stellt die erste branchenspezifische Studie über die Auswirkungen von Bad Bots auf die E-Commerce-Branche dar. Das Team analysierte im Juli 2019 16,4 Milliarden Anfragen aus 231 Domänen im Bereich E-Commerce. Das Ergebnis:…

Online-Shopping: So verbreitet ist E-Commerce in der EU

77 Prozent der Bundesbürger kaufen laut Daten des Statistikamts der Europäischen Union (Eurostat) Waren und Dienstleistungen im Netz. Damit gehört Deutschland zu den E-Commerce-Affinsten Ländern Europas. Den höchsten Online-Shopper-Anteil an der Gesamtbevölkerung können indes mit 84 Prozent die Dänen für sich reklamieren. Generell ist E-Commerce in den nördlichen Ländern offenbar populärer als in wärmeren Gefilden…

B2B-E-Commerce zieht kräftig an

Knapp 1.300 Milliarden Euro realisierte der B2B-E-Commerce in Deutschland im Jahr 2018. Damit stieg das Umsatzvolumen seit 2012 um rund 430 Milliarden Euro. Eine stolze Summe, die neben der Dominanz von EDI im B2B-Bereich nicht zuletzt auf deutliche Wachstumsimpulse aus dem Vertrieb über Websites, Onlineshops und Marktplätze zurückgeht. Der folgende Artikel stellt Ihnen einige Key…

E-Commerce in Deutschland in Zahlen

Deutschland ist der zweitgrößte b2c-E-Commerce-Markt in Europa und mit einem Wert von 75 Milliarden Euro gleichzeitig der fünftgrößte der Welt. Derzeit liegt die Marktdurchdringung von Online-Einkäufen im gesamten Einzelhandel in Deutschland bei 14%. Deutschlands führende E-Commerce-Plattform ist Amazon, der Marktführer hinsichtlich Umsatz und Nutzerzahl weltweit, und man braucht keinerlei Eye of Horus Tricks, um das…

Digital Marketing und E-Commerce: Der Kampf in der »Amazon-Welt«

Digital-Marketing- und E-Commerce-Technologien wachsen im Kampf um Wettbewerbsfähigkeit zusammen. Laut aktuellen M&A-Marktreports zu den Bereichen E-Commerce und Digital Marketing des internationalen Technologieberaters Hampleton Partners gab es 2018 gegenüber 2017 einen Anstieg des veröffentlichten M&A-Wertes im E-Commerce um 20 Milliarden USD. Dies wurde durch Mega-Deals wie Walmarts Kauf von Flipkart in Höhe von 16 Milliarden USD…

Customer Experience als Allein­stellungs­merkmal – Wie künstliche Intelligenz den E-Commerce verändert

Der E-Commerce wächst zwar nach wie vor, doch es sind die größten Online-Shops und Marktplätze, die am meisten zulegen – Stichwort: Marktkonsolidierung. Interessanterweise ist es nicht der Preis, der Kunden zu Amazon treibt: Laut einer Studie von Adobe wünschen sich Kunden vor allem Bequemlichkeit und ein gutes Einkaufserlebnis (»Customer Experience«).

E-Commerce: Die Top 10 Online-Shops in Deutschland

Amazon* ist mit Abstand die Nummer 1 unter den in Deutschland aktiven Online-Shops. Im Jahr 2017 erwirtschaftete das Unternehmen hierzulande einen Umsatz in Höhe von rund 8,8 Milliarden Euro. Mit weitem Abstand folgen Otto (3 Milliarden Euro) und Zalando (1,3 Milliarden Euro). Das Ranking der Top 10 Online-Shops** ist Teil der gemeinsam von Statista und…

E-Commerce: So digital sind die Umsätze der Branchen

48,9 Milliarden Euro hat der Einzelhandel im engeren Sinne (ohne Kfz, Tankstellen, Brennstoffe und Apotheken) laut HDE Online-Monitor 2018 im vergangenen Jahr umgesetzt [1]. Das entspricht 9,5 Prozent des gesamten Einzelhandelsumsatzes. Indes ist der Anteil von E-Commerce am Gesamtmarkt in einigen Branchen schon deutlich höher. So werden im Bereich Consumer Electronics bereits fast 29 Prozent…

Fünf Trends im B2B-E-Commerce

Die Umsetzung einer Omnichannel-Strategie mit E-Commerce als Herzstück, eine verbesserte Customer Experience, die die Trennung von B2C und B2 aufhebt, Personalisierung und Co-Creation, eine steigende Nachfrage nach CPQ-Lösungen und die Integration von KI die wichtigsten Trends im B2B-Umfeld. Der Kauf von komplexen Lösungen wie Fertigungsanlagen, Werkzeugmaschinen und die Errichtung von Bürogebäuden war noch nie einfach.…

E-Commerce-Projekte erfolgreich umsetzen – Checkliste für die wichtigsten To-Dos

  Alles beginnt mit einem Gedanken, der zu einer Idee reift. So ist es auch bei einem E-Commerce-Projekt, das oft als Basis für die Digitalisierungsstrategie eines Unternehmens dient. Bei der Realisierung müssen folgende wichtige Punkte bedacht werden:   Das richtige Team zusammenstellen Ein E-Commerce-Projekt steht und fällt mit den Entscheidungen, die getroffen werden. Deswegen ist…

E-Commerce Success-Story: Surfer’s Paradise mit Premium-Services für Händler

Boards & More ist der weltweit führende Sportartikel-Hersteller für Windsurfing, Kitesurfing und Standup-Paddling. Gegründet im Jahr 2000 steht das Unternehmen mit Hauptsitz in Molln, Österreich, und Niederlassungen in Oberhaching bei München, Annecy (Frankreich) und White Salmon (USA) für die Entwicklung und das Design von Premium-Produkten der Marken Fanatic, ION, North Kiteboarding und Northsails Windsurfing. Die…

Black Friday erhöhte die E-Commerce-Umsätze um bis zu 3.800 Prozent

Der anspruchsvollste Tag im E-Commerce stellt Online-Händler und ihre Infrastruktur immer wieder vor besondere Herausforderungen. Die vom E-Commerce-Automatisierungsspezialisten Apptus veröffentlichten Daten zeigen die Auswirkungen des Black Friday auf den Online-Handel. Schlüsselbranchen wie Consumer Electronics, Fashion und Bücher verzeichneten einen enormen Zuwachs bei Traffic, Bestellungen, Umsatz und teilweise auch beim Gewinn. Um die Unterschiede eines Black…

Fünf Trends schrauben die Anforderungen an das Krisenmanagement weiter nach oben

$
0
0

Welche Entwicklungen werden im Jahr 2020 die Krisen- und Notfallmanager von Unternehmen vor neue Herausforderungen stellen? 

https://pixabay.com/de/

Die Anforderungen an das Krisenmanagement von Unternehmen sind bereits von jeher hoch. Da die Grenzen zwischen der virtuellen und physischen Welt zunehmend verschwimmen, sind Unternehmen wie auch Behörden zusätzlich gefordert. Sie müssen die richtigen Werkzeuge einsetzen und proaktiv planen, um Mitarbeiter und Vermögenswerte zu schützen und die Betriebssicherheit bei kritischen Ereignissen zu gewährleisten.

Fünf komplexe Entwicklungen, so Everbridge , Spezialist für Critical Event Management (CEM), sorgen derzeit dafür, dass die Herausforderungen in der vernetzten Welt noch weiter steigen.

 

  1. Angriffsflächen für IT-Attacken vergrößern sich. Unternehmen setzen zunehmend auf neue Technologien wie Robotic Process Automation und Künstliche Intelligenz; und sie vernetzen dafür in immer größerem Maße intelligente Maschinen und Systeme miteinander. Die Angriffsflächen für Cyber-Attacken wachsen dadurch deutlich an. Ausfälle von Systemen können schnell ganze Fertigungslinien oder sogar komplette Fabriken lahmlegen – und damit Krisen verursachen, die schwere Umsatz- und Reputationsschäden zur Folge haben.
  2. Stärker vernetzte Lieferketten schaffen Anfälligkeit. Eine weitere steigende Herausforderung stellt die rasant fortschreitende Globalisierung mit ihren weltweiten, immer enger getakteten, komplexen Lieferketten dar. Kommt es im eigenen Unternehmen zu einem Ausfall, kann das sehr schnell schwerwiegende Folgen für Partner und Kunden haben. Umgekehrt kann sich ein Ausfall bei einem Partner sofort nachteilig auf den eigenen Betrieb auswirken und Liefer- und Terminschwierigkeiten verursachen, die sich dann wiederum unmittelbar auf Partner und Kunden auswirken.
  3. Wahrscheinlichkeit sozialer Unruhen steigt. Die politischen Verwerfungen nehmen weltweit zu. Vor allem für Unternehmen mit Standorten in Krisenregionen bedeutet das ein steigendes Risiko für soziale Unruhen und sogar Terroranschläge. Durch sie wird nicht nur der Geschäftsbetrieb, sondern auch die Belegschaft von Unternehmen bedroht. Sie bedeuten eine Gefahr für Leib und Leben der Mitarbeiter, die in solchen Krisenregionen angestellt sind oder sich dort auf Geschäftsreisen befinden.
  4. Immer extremere Wettererscheinungen drohen. Einen wachsenden Risikofaktor stellt aber auch der Klimawandel dar. Selbst in Deutschland macht er sich durch immer extremeres Wetter bemerkbar; weltweit gesehen steigt die Wahrscheinlichkeit für schwere Unwetter mit Schneestürmen, Überflutungen oder Tornados. Sie können das öffentliche Leben – und damit auch den Geschäftsbetrieb – zum Stillstand bringen und im Extremfall ebenfalls die Gesundheit und das Leben der Mitarbeiter gefährden.
  5. Notfallmanagement wird zum Differenzierungsmerkmal. Im Bewusstsein der steigenden Risiken erwarten immer mehr Mitarbeiter von ihren Arbeitgebern, sie entsprechend zu schützen. Hat ein Unternehmen ein umfassendes und effektives Notfallmanagement vorzuweisen, das im Zweifelsfall vielleicht sogar das Leben der Mitarbeiter retten kann, verfügen sie über ein wichtiges Differenzierungsmerkmal – das in Zeiten des akuten Fachkräftemangels den entscheidenden Unterschied ausmachen kann.

»Jedes Unternehmen kann durch kritische Ereignisse wie einen Cyberangriff oder einen Brand beeinträchtigt werden«, sagt Andreas Junck, Director of Sales DACH bei Everbridge. »Entscheidend ist, dass sie in solchen Fällen schnell reagieren, um Schäden zu minimieren, ihre Mitarbeiter zu warnen und zu schützen sowie auch ihre Partner, Kunden und wichtige Stakeholder in Echtzeit zu informieren. Dazu braucht es detaillierte Notfallpläne und eine integrierte Critical-Event-Management-Plattform, die den Krisenteams eine ganzheitliche Sicht auf das Geschehen liefert und sämtliche Abläufe ohne Medienbrüche durchgängig unterstützt.«

 

Ein effektives Krisenmanagement schaffen

Wie können Unternehmen bei kritischen Ereignissen die Sicherheit ihrer Mitarbeiter gewährleisten und den Geschäftsbetrieb aufrecht erhalten. Die Anforderungen an das Notfall- und Krisenmanagement von Unternehmen haben sich verschärft. Das gilt vor allem dann, wenn sie international tätig sind und Mitarbeiter in Ländern mit vielleicht extremen Wettererscheinungen oder politisch instabilen Verhältnissen beschäftigen. Dadurch ergeben sich Risiken…

Cyber Readiness Report 2019: Cybergefahr in Deutschland steigt im Jahresvergleich

Digitalisierung und Vernetzung, zunehmende Aufklärung vor Cybergefahren und zahlreiche medienwirksame Hackerangriffe – und dennoch: Viele deutsche Unternehmen vernachlässigen nach wie vor ihr Cyber-Risikomanagement. Die Zahlen des Hiscox Cyber Readiness Reports 2019 sprechen eine deutliche Sprache und sind alarmierend. Die überwiegende Mehrheit (70 %) der befragten deutschen Unternehmen zählt noch immer zu den sogenannten Cyberanfängern. Auf…

Wie komme ich aus der Krise wieder raus? – Üben, üben, üben!

Studie zu Krisenmanagement: Viel Zuversicht, wenig Praxistests.   Regelmäßige Reputationsprofis-Leser wissen: Professionelles Reputation Management besteht aus drei Säulen. Neben dem kontinuierlichen Aufbau eines guten Rufs gehört dazu das frühzeitige, systematische Suchen nach und Eliminieren von Reputationsrisiken, um so viele Krisen wie möglich zu stoppen, noch bevor sie ausbrechen. Und die Vorbereitung auf die Krisen, die…

Datenschutzorientierte Online-Dienste sehen ePrivacy-Verordnung als Chance

Während die Diskussionen über den Entwurf der ePrivacy-Verordnung weitergehen, unterstreichen die datenschutzorientierten Online-Dienste ArmorText, CryptTalk, Lavabit, Protonmail, TeamDrive, Tresorit, Tutanota und Wire die unverzichtbare Rolle der End-to-End-Verschlüsselung sowohl beim Schutz der Daten von Einzelpersonen im Internet als auch bei der Steigerung des Vertrauens in die Sicherheit digitaler Dienste.   Die EU arbeitet derzeit an der…

Notfallplanung spart Unternehmen Zeit und Geld

Weltweite Studie zeigt: Betriebliches Kontinuitätsmanagement (BCM) senkt die Kosten pro Datenpanne um bis zu 600.000 US-Dollar. Unternehmen, die betriebliches Kontinuitätsmanagement (BCM) betreiben, handeln bei Datenpannen schneller und sparen somit Zeit und Geld. Das hat eine globale Studie des Ponemon Instituts in Zusammenarbeit mit IBM ergeben [1]. So entdecken diese Unternehmen Datenpannen früher und zahlen im…

Cyber Security Report analysiert Sicherheitsbedrohungen jenseits von Malware

Der neue Bericht zur Lage der Cybersicherheit zeichnet ein eindrucksvolles Bild der Bedrohungen durch unsichere Netzwerke und Geräte, das Internet der Dinge, Internetkriminalität und vieles mehr. Cyber-Security-Spezialist F-Secure hat einen neuen Bericht veröffentlicht, der die Trends und Bedrohungen untersucht, die die derzeitige Lage der Cybersicherheit auf der ganzen Welt bestimmen. Der 2017 State of Cyber…

Angst ist kein Geschäftsmodell

Kommentar von Prof. Dr. Thomas Druyen [1]. Der Trendindex 2016 von 2bAhead dokumentiert, dass sich die Stimmung in den befragten deutschen Unternehmen vorsichtig in Richtung Innovationsbereitschaft bewegt. Gleichzeitig zeigt die Untersuchung eindrücklich, dass dennoch Angst als größter Innovationsverhinderer sein Unwesen treibt. An dieser Stelle eröffnet sich für die Zukunftspsychologie eine Kommentierungsoption, die ich gerne weiter…

Studie: Weltweit steigende Kosten bei Datenlecks

Eine Datenpanne kostet Unternehmen im Schnitt bis zu vier Millionen US-Dollar. Weltweite Steigerung von 29 Prozent seit 2013. Rund 3,61 Millionen Euro fallen pro Datenleck in Deutschland an. Der Verlust oder Diebstahl von kritischen Daten kostet Unternehmen weltweit Millionen. Eine einzige Datenpanne schlägt im Schnitt mit bis zu vier Millionen US-Dollar zu Buche – eine…

Studie: Jeder dritte Innovationschef verhindert Innovationen aus Angst

Dauerstudie zeigt signifikanten Anstieg des Trendklimas in der deutschen Wirtschaft. Top 3 der Innovationsverhinderer sind: Angst, Macht und Glauben. Laut den neusten Ergebnissen der Dauerstudie »Deutscher Trendindex« hat sich das Trendklima in der deutschen Wirtschaft in den vergangenen sechs Monaten signifikant verbessert [1]. In der Studie erreicht das aktuelle Trendklima einen Wert von 144, nach…

Hälfte der Industrie ist nicht auf digitale Angriffe vorbereitet

■      Nur 51 Prozent der Unternehmen verfügen über ein Notfallmanagement. ■      Selbst viele große Industriebetriebe sind nicht ausreichend gewappnet. ■      Im Krisenfall ist eine schnelle Reaktion entscheidend. Nur die Hälfte aller Industrieunternehmen (51 Prozent) in Deutschland verfügt über einen Notfallplan, um innerhalb kurzer Zeit auf den Abfluss sensibler Daten, digitale Wirtschaftsspionage oder Sabotage reagieren zu…

Checkliste: Wie Unternehmen ihr Zugriffsmanagement auf die digitale Transformation vorbereiten

Die Industrie-Analysten von Gartner rechnen damit, dass im Jahr 2020 Identity und Access Management bereits Milliarden von Menschen, zig Milliarden Dinge und mehrere hundert Billionen Beziehungen umfasst. Ausmaß und Komplexität von Identity und Access Management (IAM) im digitalisierten Unternehmen sind heute noch sehr groß und ein neuer Ansatz ist vonnöten: einfach, modular und skalierbar. Doch…

Jülicher Expertise: Warum das Elektroauto auch mit Wasserstoff fährt

$
0
0

Im Kontext der Energie- und Verkehrswende werden aktuell Elektroantriebe mit Batterien und Brennstoffzellen sowie der Einsatz strom- und biomassebasierter Kraftstoffe in Verbrennungsmotoren kontrovers diskutiert. Wissenschaftler des Jülicher Instituts für Techno-ökonomische Systemanalyse untersuchen die verschiedenen Optionen unter ökonomischen Gesichtspunkten. Ein Interview zur Faktenlage mit dem Leiter des Instituts, Prof. Detlef Stolten.

Prof. Detlef Stolten
Copyright: Forschungszentrum Jülich / Sascha Kreklau

 

Herr Prof. Stolten, Medien und Politik zeigen sich aktuell sehr interessiert an Verkehrslösungen mit Brennstoffzellen. Welches sind aus Ihrer Sicht die wichtigsten Vorteile von Brennstoffzellen-Autos?

Das aktuelle Interesse ist sicherlich auch auf die Einsatzgrenzen der Batterie-Autos zurückzuführen sowie auf die Tatsache, dass Brennstoffzellenfahrzeuge asiatischer Hersteller inzwischen im Markt und vor allem in vielen Anwendungsbereichen sichtbar sind.

Im Vergleich zu Batterien liegen die Vorteile der Brennstoffzellenantriebe zum einen bei einer fünfmal höheren Energiedichte des Stromerzeugungssystems. Darüber hinaus lassen sie sich in drei Minuten betanken und damit mindestens 10 Mal schneller als Batteriefahrzeuge. Diese Eigenschaften ermöglichen hohe Dauerantriebsleistungen, beispielsweise für Pkw mit signifikanten Fahranteilen im Langstreckenverkehr sowie für Lkw, Busse und Züge.

 

Aber Brennstoffzellenautos gelten als wenig effizient. Stimmt das?

Nein, das ist falsch: Brennstoffzellenantriebe sind energieeffizient, auch wenn ihr Wirkungsgrad nicht mit dem von Batterieautos mithalten kann. Dafür erbringt der Wasserstoff durch seine Speicherbarkeit aber auch eine »Dienstleistung« in Energiesystemen mit hohem Anteil an erneuerbaren Energien.

Betrachtet man die sogenannte Well-to-wheel-Bilanz der beiden Antriebsarten, also die gesamte Wirkungsgradkette von der Gewinnung der Primärenergie bis zum Rad des Fahrzeugs, kommen Brennstoffzellen-Pkw auf rund 40 Prozent. Der entsprechende Wert für Batterie-Pkw liegt bei knapp 70 Prozent. Heutige Pkw mit Verbrennungsmotor kommen auf etwa 18 Prozent.

Zum Vergleich: Flüssige synthetische Kraftstoffe, die mithilfe von Strom aus erneuerbaren Energien hergestellt werden (Power-to-liquid), kommen in der Well-to-wheel-Bilanz auf etwa 10 Prozent. Dieser niedrige Wert hat mehrere Gründe. Ausgangspunkt ist hier stets die Erzeugung von Wasserstoff durch Elektrolyse, mit einem Wirkungsgrad von heute maximal 70 Prozent. Dazu kommen der Wirkungsgrad der Kraftstoffsynthese sowie die Energie für die Bereitstellung des benötigten Kohlendioxids. Schließlich ist der Antriebswirkungsgrad der Verbrennungsmotoren mit 25 Prozent deutlich geringer als der von Batterie- oder Brennstoffzellenfahrzeugen.

Für die Nutzung von Kraftstoffen aus Biomass-to-Liquid-Prozessen, die über den Weg der Vergasung von Biomasse hergestellt werden, beträgt der Well-to-wheel-Wirkungsgrad rund 13 Prozent.

 

Wir sehen uns heute mit einer starken Umorientierung beim Umgang mit Energie konfrontiert. Wie würde sich aus Ihrer Sicht der Wasserstoff in einem zukünftigen Energiesystem darstellen, das den neuen Anforderungen gerecht wird?

Hier möchte ich auf das Kernelement des Wandels im Energiebereich eingehen, und das ist der Strom aus erneuerbaren Energien. Dieser erfordert aufgrund seiner Unstetigkeit eine deutlich verstärkte Speicherkomponente im Energiesystem. Dabei kann aus »grünem« Strom hergestellter Wasserstoff als saisonaler Energiespeicher wirken. Nicht sofort im Netz benötigter Strom wird also zur Erzeugung von Wasserstoff genutzt. Dieser kann über lange Zeiträume gelagert werden und steht auch im Falle sogenannter Dunkelflauten zur Verfügung – also wenn aufgrund ungünstiger Wetterlage kein Sonnen- oder Windstrom erzeugt und ins Netz eingespeist wird. Solche Ereignisse, die beispielsweise in Deutschland statistisch alle zehn Jahre bis zu ein oder sogar zwei Wochen andauern können, erfordern großtechnische Speicher, die nach heutigem Stand nur mithilfe chemischer Energieträger – wie eben Wasserstoff – realisiert werden können.

Darüber hinaus ließe sich Wasserstoff auch hervorragend als Transportmedium für den zunehmend ins Spiel gebrachten Import erneuerbarer Energien aus den Sonnen und Windregionen nutzen, zum Beispiel aus Patagonien oder Nordafrika. Damit könnte ein flexibler Wasserstoff-»Pool« aus heimischen und überregionalen Wasserstoffquellen gespeist werden, der Anwendungen im Verkehr und in der Industrie versorgt.

 

Ein häufiger Kritikpunkt an der Brennstoffzelle sind die Kosten. Sind Brennstoffzellenautos marktfähig?

Zumindest die Preise heutiger Systeme sind im Vergleich höher als beispielsweise bei Batterieautos. Wettbewerbsfähige Kosten von Brennstoffzellen-Pkw halten wir mittelfristig für sicher umsetzbar. Brennstoffzellensysteme werden heute nur in relativ geringen Stückzahlen gefertigt. Die Massenproduktion wird die Kosten deutlich reduzieren, das zeigen internationale Studien.

Ein weiterer Kostenfaktor bei der Brennstoffzellentechnologie sind die Katalysatoren, die Edelmetalle benötigen, etwa Platin. Die Entwicklung der vergangenen Jahre hat gezeigt, dass die benötigten Mengen drastisch reduziert werden können, in etwa um den Faktor zehn in den zurückliegenden 15 Jahren. Eine weitere Verringerung um den Faktor vier halte ich für umsetzbar, so dass dann das Niveau heutiger Abgaskatalysatoren von Verbrennungsmotorfahrzeugen erreicht würde. Auch die Kosten des Drucktanks lassen sich durch verbesserte Produktionsverfahren deutlich reduzieren.

Darüber hinaus sinken durch die intensive Weiterentwicklung der batterie- und hybridelektrischen Antriebe die Kosten für den eigentlichen Elektroantrieb, was dann insgesamt den emissionsfreien Konzepten mit Batterien und Brennstoffzellen zugutekommt. Ein dabei zu berücksichtigender Trend ist, dass die Kosten für Pkw mit Verbrennungsmotoren, etwa durch strengere Abgasstandards und die geforderten Effizienzsteigerungen mittel- bis langfristig deutlich steigen werden. Vermutlich sind Autos mit Brennstoffzelle oder Batterie langfristig die günstigere Alternative.

 

Die Diskussionen über Batterie und Brennstoffzelle entzünden sich nicht zuletzt an der Frage nach der Betankung: Strom laden oder Wasserstoff tanken. Muss das nicht auch bei der Kostenbetrachtung berücksichtigt werden?

Auf jeden Fall: Beide Versorgungssysteme erfordern neue Investitionen, wobei die Kosten der jeweiligen Infrastruktur stark davon abhängen, wie viele Fahrzeuge versorgt werden müssen. Für Brennstoffzellenautos muss ein Großteil der Infrastruktur erst noch aufgebaut werden – und es muss die Übergangsphase bewältigt werden, in der die Erzeugung und Speicherung von grünem Wasserstoff mithilfe von Überschussstrom ausgebaut und entsprechende Tankstellen flächendeckend aufgebaut werden. Das elektrische Netz dagegen existiert bereits – es fehlt allerdings an einer flächendeckenden öffentlichen Ladeinfrastruktur und, für den Fall höherer Marktanteile von Batterieautos, auch an der Netzverstärkung.

Batteriefahrzeuge können damit vor allem am Anfang der Markteinführung preiswerter geladen werden, während eine Wasserstoffversorgung erst mit zunehmender Marktdurchdringung günstiger wird. In einer Studie haben wir festgestellt, dass bei 20 Millionen Autos die Kosten der Wasserstoffversorgung bei etwa 40 Milliarden Euro liegen – im Vergleich dazu kostet eine Ladeinfrastruktur für Batterieautos etwa 40 bis 60 Milliarden Euro. Nimmt man die Mittelwerte, ist die Wasserstoffinfrastruktur 20 Prozent billiger als die Batterieladeinfrastruktur.

 

Wie erklären Sie sich dabei die größere Unsicherheit bei der Ladeinfrastruktur?

Hier ist für uns heute vor allem ungeklärt, wie sich das Ladeverhalten von Autonutzern künftig entwickeln wird: Ob beispielsweise Batteriefahrzeuge bei ausreichender Versorgungsinfrastruktur eher über Nacht geladen werden oder tagsüber an Schnellladesäulen, ist bisher nicht abzusehen. Bei der Wasserstoffbetankung hingegen ist alles wie gehabt, so dass hier auch die Kosten deutlich sicherer angegeben werden können.

Zu beachten ist auch, dass die Kostenanalysen teilweise auf konservativen Annahmen beruhen. Bisher wurde beispielsweise angenommen, dass für die Wasserstoffversorgung der Bau neuer Pipelines notwendig ist. Würden stattdessen vorhandene Erdgas-Pipelines für den Wasserstofftransport umgewidmet, ließen sich die Pipelinekosten im Transmissionsbereich, also über die lange Strecke, um 50 bis 80 Prozent reduzieren. Gleichzeitig, und das halten wir bei der Markteinführung für besonders wichtig, sinken die Vorlaufzeiten für Planung, Genehmigung und Bau um etwa die Hälfte, was der Umsetzung der Energiewende deutlichen Schub verleiht.

 

Ihre Analyse zeigt also, dass es bei beiden Infrastrukturen erheblichen Ausbaubedarf gibt. Wie weit ist denn der Ausbau der Wasserstofftankstellen inzwischen vorangekommen?

Die Wasserstofftankstellen-Infrastruktur in Deutschland ist aktuell entlang von Korridoren ausgelegt und damit für Langstreckenmobilität geeignet. Die Tankstellen sind dabei so dimensioniert, dass auch eine wachsende Nachfrage bedient werden kann. Die derzeit vorhandenen 78 Tankstellen werden bis Anfang 2020 auf zunächst 100 ausgebaut, und in den nächsten Jahren – mit steigender Zahl der Wasserstofffahrzeuge – um weitere 300 Tankstellen. Dies ist immer noch gering im Vergleich zu den für 2050 erwarteten 10.000 Tankstellen, aber es ist ein echter Einstieg in die flächendeckende Versorgung.

 

Abschließend vielleicht noch eine Frage, die die Wirtschaftspolitiker sehr interessieren dürfte: Wie wirken sich Ihrer Einschätzung nach die Wasserstoff- und Brennstoffzellentechnik auf die Wertschöpfung im Automobilland Deutschland aus?

In der Wirtschafts- und Forschungspolitik sowie in der Industrie wird dem Thema Wertschöpfung in Deutschland insgesamt große Aufmerksamkeit gewidmet. Speziell den Wasserstofftechnologien schreiben wir im Moment ein erhebliches regionales Wertschöpfungspotenzial zu. Während der Markt für Batterietechnik weitgehend von China und den USA beherrscht wird, ist das »Rennen« bei der Brennstoffzellentechnik sicherlich noch offen. Deutschland und Europa haben hier gute Chancen, ganz vorne mitzuspielen. Mit Blick auf die Anwendung im Pkw und Lkw muss aber schnell gehandelt werden, da die interessantesten Fahrzeuge derzeit vor allem aus Südkorea und Japan kommen. Wenn es gelingt, hier mit eigenen Modellen Fuß zu fassen, können neue regionale Zulieferketten etabliert und damit auch Arbeitsplätze in der Automobilindustrie gesichert werden.

 

Weitere Informationen:
Institut für Energie- und Klimaforschung, Techno-ökonomische Systemanalyse (IEK-3)
Infrastrukturvergleich: Elektrisches Laden und Wasserstoff-Betankung
Kosteneffiziente und klimagerechte Transformationsstrategien für das deutsche Energiesystem bis zum Jahr 2050

 

Es wird häufiger Wasserstoff getankt

Das Elektroauto ist das Auto der Zukunft – darüber herrscht weitgehende Einigkeit. Doch welche Antriebsart die beste ist, daran scheiden sich noch die Geister. In einer aktuellen Studie empfehlen der ADAC und das Fraunhofer-Institut nun, den Ausbau der Infrastruktur sowohl für Strom als auch für Wasserstoff parallel voranzutreiben. Ein gleichberechtigter Ausbau könnte Kosten von bis zu sechs Milliarden Euro im Jahr einsparen, so die Analysten.

In den vergangenen Jahren ist die Nachfrage nach Wasserstoff an deutschen Tankstellen gestiegen. Im Juni lag der Absatz bei 8,2 Tonnen bundesweit, wie die Grafik zeigt.

71 Wasserstoff-Tankstellen gibt es in Deutschland bisher – bis Ende des Jahres soll die Zahl auf 100 aufgestockt werden, so die Auskunftsseite h2 live. In absoluten Zahlen hat Deutschland damit weltweit die zweitmeisten Wasserstofftankstellen nach Japan. Bei Wasserstoff-Tankstellen pro Einwohner liegt Deutschland an vierter Stelle hinter Dänemark, Norwegen, Japan und Österreich. Frauke Suhr

https://de.statista.com/infografik/18586/absatz-von-wasserstoff-an-deutschen-tankstellen/

 

Energiewende: So wird der Umstieg auf Wasserstoff konkret

Durch den Umstieg auf Brennstoffzellenautos lässt sich der CO2-Ausstoß maßgeblich verringern. Die benötigte Wasserstoff-Infrastruktur könnte sich als Schlüssel erweisen, um fossile Energieträger künftig stärker durch erneuerbare Energien zu ersetzen. Für den Aufbau der kompletten Infrastruktur für den deutschen Pkw-Straßenverkehr wären Investitionen in der Höhe von 61 Milliarden Euro erforderlich, schätzen Wissenschaftler des Forschungszentrums Jülich.

Zum Vergleich: Über den relevanten Zeitraum von 40 Jahren verteilt lägen die jährlichen Ausgaben damit unter den derzeitigen jährlichen Investitionen in das deutsche Erdgasnetz.

Wind und Sonne liefern weder gleichmäßig Energie, noch zu dem Zeitpunkt, zu dem diese gerade benötigt wird. Der massive Ausbau erneuerbarer Energien erfordert daher Lösungen, um zeitweilige Überschüsse zu verwerten und zu speichern. »Mithilfe von Elektrolyseuren kann man Lastspitzen nutzen, um aus Wasser Wasserstoff herzustellen, der sich ähnlich wie Erdgas unproblematisch und günstig in unterirdischen Salzkavernen lagern lässt«, erläutert Professor Detlef Stolten vom Jülicher Institut für Energie- und Klimaforschung (IEK-3).

Pipelines in der Länge von 42.000 Kilometer und rund 10.000 neue Wasserstoff-Tankstellen wären nötig, um 75 Prozent der Pkw-Fahrzeuge mit Wasserstoff zu versorgen. Insgesamt müssten für Elektrolyseure, Pipelines, Wasserstoff-Tankstellen und die Erschließung von Kavernen rund 61 Milliarden Euro aufgebracht werden. Verteilt über die gesamte Aufbauphase von 40 Jahren wären die jährlichen Ausgaben damit im Schnitt niedriger als die heutigen Investitionen in das Erdgasnetz: Die 633 Verteilnetzbetreiber in Deutschland haben alleine im Jahr 2013 rund 2 Milliarden Euro für den Erhalt und Ausbau des Erdgasnetzes ausgegeben.

Die Kosten für den Wasserstoff wären vergleichbar mit heutigen Kraftstoffkosten. Sie lägen – abhängig von der Vergütung des genutzten Stroms – umgerechnet nur wenige Cent pro Kilowattstunde unter oder über den heutigen Benzinpreisen. Auch in Sachen Komfort müssten Autofahrer keine Abstriche machen. Innerhalb von drei Minuten ist ein Brennstoffzellen-Pkw vollgetankt. Die Reichweite beträgt bis zu 700 Kilometer.

Investitionsbedarf für Wasserstoff-Infrastruktur
Copyright: Forschungszentrum Jülich

 

Wegbereiter für Fortschritte beim Klimaschutz

»Mithilfe von Wasserstoff als Speicher könnte man einen großen Teil der fossilen Kraftwerke durch Windkraft ersetzen«, erklärt Detlef Stolten. In ihrem Szenario gehen die Forscher von insgesamt 170 Gigawatt elektrischer Leistung onshore und 59 Gigawatt offshore im Jahr 2050 aus.

Zusammen ist das etwa die fünffache Gesamtleistung der Windkraft von 2016, was einer Verringerung der CO2-Emissionen um insgesamt 20 Prozent entspricht. Weitere 6 Prozentpunkte lassen sich durch den Ersatz konventioneller Pkw einsparen. Zugleich könnten auch die aktuell in der Diskussion stehenden Stickoxide und Feinstäube in Städten deutlich reduziert werden. Denn die Abgase von Wasserstoffautos bestehen lediglich aus Wasserdampf. Zusätzliche Einsparungen wären durch die Einführung entsprechender Busse und Kleintransporter möglich.

Niedrigere Anfangskosten

Der Investitionsbedarf für die Infrastruktur hängt in hohem Maße von den kostenintensiven Elektrolyse-Kapazitäten ab. »Für eine anfängliche Flotte von 10.000 Brennstoffzellenfahrzeugen wären zwar schon ein flächendeckendes Tankstellennetz, aber zunächst nur relativ geringe Elektrolysekapazitäten von etwa 23 MW im Jahr 2025 erforderlich«, erläutert Stolten. Denn zunächst würde nur relativ wenig Wasserstoff benötigt.

Potenzielles Wasserstoff-Pipelinenetz
Copyright: Forschungszentrum Jülich

 

Um langfristig 75 Prozent der deutschen Pkw – oder geschätzte 33 Millionen Brennstoffzellenautos – zu versorgen, wäre dagegen ungefähr die tausendfache Elektrolysekapazität mit einer elektrischen Gesamtleistung von 28 Gigawatt erforderlich. Das entspricht in etwa der Leistung von 50 Kohlekraftwerken. Die Forscher haben die Kosten im Rahmen einer technoökonomischen Studie erarbeitet und gemeinsam mit Wissenschaftlern beteiligter Institute als Beitrag für das Virtuelle Institut »Strom zu Gas und Wärme« veröffentlicht, das vom Land Nordrhein-Westfalen gefördert wird.

Fachmesse IRES 2017: Pfandflasche für Wasserstoff

Auf der Fachmesse IRES 2017 präsentieren die Jülicher Forscher laufende Forschungsarbeiten zu einem neuartigen Typ von Elektrolyseur, der perfekt zu den fluktuierenden, erneuerbaren Quellen passt. Sogenannte PEM-Elektrolyseure können sich in Sekundenschnelle an abrupte Stromschwankungen anpassen. Der Gehalt an Edelmetallen ist allerdings noch relativ hoch und soll durch die Verwendung innovativer Elektrodenstrukturen reduziert werden.

Wissenschaftler des Helmholtz-Instituts Erlangen-Nürnberg (IEK-11) sind ebenfalls vertreten und stellen Arbeiten zu einer Art »Pfandflasche für Wasserstoff« vor: eine organische Trägerflüssigkeit (»liquid organic hydrogen carrier«, kurz LOHC), die mehr als 650 Liter Wasserstoff pro Liter aufnehmen kann und mit der sich Wasserstoff sicher lagern und transportieren lässt.

Szenario mit regenerativem Wasserstoff für den Straßenverkehr
Copyright: Forschungszentrum Jülich

 

Originalpublikationen:
Re-energizing energy supply: Electrolytically-produced hydrogen as a flexible energy storage medium and fuel for road transport
Emonts, B.; Schiebahn, S.; Görner, K.; Lindenberger, D.; Markewitz, P.; Merten, F.; Stolten, D.
Journal of power sources 342, 320 – 326 (2017); DOI: 10.1016/j.jpowsour.2016.12.073
Emonts, B.; Grube, T.; Otto, A.; Robinius, M.; Stolten, D.: Mit Wasserstoff zur bedarfsgerechten und sauberen Energieversorgung; in: Broschüre der EnergieAgentur.NRW, Flexibilität: Eine wichtige Säule der Energiewende, 10/2016, S. 11-13
Robinius, M.: Strom- und Gasmarktdesign zur Versorgung des deutschen Straßenverkehrs mit Wasserstoff, in RWTH Aachen University. 2015: Forschungszentrum Jülich GmbH Zentralbibliothek, Verlag

Video: Umwandlungstechnologien für eine nachhaltige Energiezukunft

Länge: 2:37 min.

 

 


37 Artikel zu „Wasserstoff“

Wasserstoffzüge mit LOHC-Technologie: Aus dem Labor auf die Schiene

Forscher des HI-ERN planen Wasserstoffzüge mit LOHC-Technologie.   Energiewende und Stickoxid-Problematik machen auch vor der Eisenbahn nicht Halt. Viele Strecken in Deutschland sind nicht elektrifiziert, vor allem im Nahverkehr. Das Forschungszentrum Jülich stellt ein innovatives Projekt für den Schienenverkehr vor. Wissenschaftler des Helmholtz-Instituts Erlangen-Nürnberg (HI ERN), einer Außenstelle des Forschungszentrums Jülich, wollen Züge mit LOHC-Technologie…

Wasserstoff-Speicher als Wegbereiter für die Energiewende

Energiesystem der Zukunft mit Wasserstoff als Energiespeicher. Copyright: Forschungszentrum Jülich Mit dem Ausbau erneuerbarer Energien ist es nicht getan. Wind- und Sonnenstrom sind starken Schwankungen unterworfen. Der Umbau des Energiesystems ist daher nur mit geeigneten Speichertechnologien denkbar. Wasserstoff ist hierfür in besonderer Weise geeignet. Er besitzt eine hohe Energiedichte, lässt sich gut lagern und durch Brennstoffzellen…

Erneuerbare Energien: Strommix zu 47 % regenerativ

47 Prozent des in Deutschland erzeugten Stroms kommen laut Fraunhofer-Institut für Solare Energiesysteme im laufenden Jahr aus erneuerbaren Quellen. Bis einschließlich Mitte Juli produzierten Wind- und Solaranlagen hierzulande fast 100 Terawattstunden (TWh) Strom. Zum Vergleich: Bei Braun- und Steinkohle waren es 84 TWh. Laut einem Bericht des Handelsblattes ist der Anteil der von Kohlekraftwerken an…

Erneuerbare Energien: Wie grün ist Europas Energie?

Es ist ein Vorhaben für den Klimaschutz: Bis 2020 will die europäische Union (EU) 20 Prozent des Bruttoendenergieverbrauchs aus alternativen Energiequellen wie Wind und Sonne speisen. Die EU-Mitgliedsstaaten haben sich dafür individuelle Ziele gesteckt. Laut den aktuellsten Eurostat-Daten, die sich auf das Jahr 2017 beziehen, haben bisher aber nur die wenigsten Länder ihr Klima-Ziel erreicht. Schweden, das ehrgeizigste…

Energiewende: Wer beim Ausbau von erneuerbaren Energien führt

Schleswig-Holstein und Baden-Württemberg sind führend im Bereich Erneuerbarer Energien. Das ist das Ergebnis eines Bundesländervergleichs, der im Auftrag der Agentur für Erneuerbare Energien (AEE) erstellt worden ist. Die beiden Länder unternehmen den Wissenschaftlern zufolge die meisten Anstrengungen zur Steigerung des Anteils erneuerbarer Energien im Wärmebereich und liegen bei den erreichten Indexpunkten nahezu gleichauf (0,555 und 0,554 von…

Siemens präsentiert Ansatz für ein intelligentes und nachhaltiges Energieökosystem

Siemens Smart Infrastructure zeigt auf der diesjährigen European Utility Week (EUW) in Paris, wie das Unternehmen Energieintelligenz auf der Angebots- und Nachfrageseite vorantreibt. Indem Siemens das Energieökosystems über Gebäude, Industrie und Netze hinweg mitgestaltet, unterstützt es Regierungen, Städte und Unternehmen bei ihren Nachhaltigkeitszielen. Dabei konzentriert sich Siemens auf vier Themen, die auf die Energiewende einzahlen:…

Sind die Dampfmaschinen eigentlich out?

2019 ist ein besonderes Jahr, denn es wird das 200. Jubiläum des Todes vom genialen Erfinder James Watt und das 250. Jubiläum vom Patent seiner Dampfmaschine gefeiert. In der modernen Welt ist die Elektrizität zur Selbstverständlichkeit geworden. Der Strom wird in Kraftwerken erzeugt und das wissen bereits alle Kinder. Aber denkt noch irgendjemand in diesem…

Klimaschutz: Die Jugend fühlt sich im Stich gelassen

Die Klimaschutzbewegung Fridays for Future füllt derzeit Schlagzeilen, Talkshows sowie Fußgängerzonen und wird scheinbar von weiten Teilen der Jugendlichen unterstützt. Doch wie viele junge Menschen in Deutschland haben schon tatsächlich an einer Fridays for Future-Veranstaltung teilgenommen? Und ist die Jugend der Ansicht, dass diese Bewegung etwas bewirkt? Was tragen Jugendliche durch ihr eigenes Verhalten im…

Nutzfahrzeuge mit Plug-in-Hybrid-Antrieb sind eine praxisorientierte Lösung für bessere Luft in Städten

Drei Monate nach der Einführung der »Ultra Low Emissions Zone« (ULEZ) in London zeigt eine Studie das Potenzial von Plug-in-Hybrid-Nutzfahrzeugen bezüglich der Verbesserung der Luftqualität in Großstädten. Unternehmen wie Heathrow Airport, Sky, Transport for London und Vodafone haben an der 12-monatigen Teststudie teilgenommen, bei der insgesamt 20 Plug-in-Hybrid-Nutzfahrzeuge von Ford zum Einsatz kamen. Bei dem…

Alternative Antriebe: E-Autos fahren am günstigsten

Bei der Anschaffung eines Autos spielen die Kosten für Kraftstoff, Versicherung, Wartung etc. eine große Rolle. Abhängig sind sie insbesondere von der gewählten Antriebsart. Insbesondere die Fülle von alternativen Antrieben kann diejenigen Autofahrer verunsichern, die auf konventionelle Technik verzichten wollen. Wie die Infografik von Statista zeigt, sind reine Elektrofahrzeuge nach einer Untersuchung der Unternehmensberatung PricewaterhouseCoopers…

Wie lassen sich die Abgaben und Umlagen auf Strom sowie Heiz- und Kraftstoffe reformieren?

In Deutschland sind verschiedene Energieträger derzeit unterschiedlich stark mit Abgaben und Umlagen belastet. Dies gilt sowohl in Bezug auf den Energiegehalt als auch auf die mit der Nutzung verbundenen CO2-Emissionen. Dieses Roundup gibt einen systematischen Überblick über bestehende Vorschläge zur Umgestaltung der Belastungen. Sie zielen meist darauf ab, Strom günstiger zu machen und Heiz- und…

Pkw in Deutschland: Immer stärker, immer schneller, immer schwerer

Staus, zu wenig Parkplätze, durch Emissionen von Autos belastete Luft – in Sachen Mobilität muss sich einiges ändern in Deutschland. Wenn man die technischen Merkmale von neu zugelassenen Pkw betrachtet, drängt sich allerdings der Eindruck auf, die Zeit laufe rückwärts. Wie die Infografik zeigt, werden Autos in Deutschland im Schnitt immer leistungsstärker, immer schneller und…

Barrieren in der Unternehmenskultur halten vom Home Office ab

$
0
0

Viele Jobs ließen sich zumindest teilweise zu Hause erledigen – was den Beschäftigten die Vereinbarkeit von Familie und Beruf erleichtern würde. Dennoch nutzt nur ein Teil von ihnen diese Chance. Woran das liegt, haben Dr. Yvonne Lott, Forscherin am Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung, und Dr. Anja Abendroth von der Universität Bielefeld untersucht. Ihre neue Studie zeigt, dass Barrieren, die sich aus der Unternehmenskultur ergeben, eine wichtige Rolle spielen, wenn Beschäftigte nie von zu Hause aus arbeiten. Ein Recht auf Home Office würde vor allem Frauen helfen.

Für ihre Untersuchung haben die Wissenschaftlerinnen einen Datensatz des Instituts für Arbeitsmarkt- und Berufsforschung ausgewertet, der repräsentativ für Unternehmen ab 50 Beschäftigten ist. Darin enthalten sind Angaben von 1800 Beschäftigten, warum sie kein Home Office praktizieren.

 

Der häufigste Grund für den Verzicht auf Home Office ist die Einschätzung, dass Arbeit von zu Hause nicht zum Job passe. Dies sagten knapp 80 Prozent der Befragten, die mehrere Gründe nennen konnten. Fast 70 Prozent gaben an, Anwesenheit am Arbeitsplatz sei dem Chef wichtig. 60 Prozent hielten Arbeiten von daheim auf ihrer Stelle für technisch unmöglich. Gut 14 Prozent der Befragten erklärten, ihr Job ließe sich zwar auch vom heimischen Computer bewältigen, dies sei aber nicht erlaubt. Und knapp 6 Prozent fürchten um ihre Karrierechancen, wenn sie zum Arbeiten nicht in die Firma kommen. Frauen geben sehr viel häufiger an als Männer, dass Home Office nicht erlaubt sei.

 

Weitere Berechnungen der Wissenschaftlerinnen zeigen: Ob Anwesenheitskultur und befürchtete Karrierehindernisse dem Home Office im Weg stehen, hängt von der Unternehmenskultur ab. Wo Wert auf Familienfreundlichkeit und Flexibilität im Sinne der Beschäftigten gelegt wird, setzen sich die Mitarbeiter eher an den heimischen PC als in Firmen, in denen alle versuchen, den anderen ständig vorzuführen, wie hart sie arbeiten. Frauen halten kulturelle Barrieren öfter vom Home Office ab als Männer. Sie befürchten eher, sich mit Home Office aufs berufliche Abstellgleis zu begeben.

 

Umso wichtiger ist es aus Sicht der Forscherinnen, dass Beschäftigte, die gern von zu Hause arbeiten würden, Rückendeckung vom Gesetzgeber bekommen. Ein Recht auf Home Office würde ihre Wünsche legitimieren und ihre Verhandlungsposition gegenüber dem Arbeitgeber verbessern.

 

Yvonne Lott, Anja Abendroth: Reasons for Not Working from Home in an Ideal Worker Culture (pdf), WSI Working Paper Nr. 211, November 2019.

https://media.boeckler.de/Sites/A/Online-Archiv/25966

 


 

1 Tag Home Office pro Woche = 850 000 Tonnen CO2 weniger

Illustration: Absmeier

Sicherlich ist längst nicht jeder ein begeisterter Verfechter der Fridays-for-Future-Bewegung. Die damit verbundene enorme mediale Aufmerksamkeit regt allerdings immer mehr Menschen dazu an, einen persönlichen Beitrag zur Verlangsamung des Klimawandels zu leisten. Indirekt ist davon auch das Geschäftsleben betroffen, denn wer als umweltbewusster Mensch privat lieber die öffentlichen Verkehrsmittel nutzt, setzt sich vermutlich auch bei beruflichen Reisen häufiger in die Bahn anstatt in den Firmenwagen.

 

Schön länger hinterfragen Unternehmen die Notwendigkeit einzelner Geschäftsreisen und weichen zunehmend auf Videokonferenzen aus – wenn auch hauptsächlich aus Spargründen. Eine Umfrage des Deutschen Reiseverbandes (DRV) hat ergeben, dass aktuell knapp die Hälfte (49 Prozent) der Unternehmen hierzulande häufiger Videokonferenzen als eine Alternative zur Geschäftsreise nutzen. Selbstverständlich gibt es Termine, die aus verschiedenen Gründen persönlich abgehalten werden müssen, aber auch hier lässt sich beispielsweise mit einer optimierten Terminplanung und mehreren Geschäftstreffen an einem Tag eine weitere An- und Abreise einsparen.

 

Auch beim Thema mobiles Arbeiten sind noch längst nicht alle Möglichkeiten ausgeschöpft. So hat beispielsweise das Institut für angewandte Arbeitswissenschaft (Ifaa) für die Bundestagsfraktion eine Überblicksstudie erstellt [1]. Ein Ergebnis der in dieser Woche veröffentlichten Studie waren die potenziellen CO2-Einsparungen, die sich durch regelmäßige Home-Office-Tage erzielen ließen: Wenn nur zehn Prozent der normalerweise mit dem Auto zur Arbeit fahrenden Arbeitnehmer einen Tag in der Woche von zu Hause statt im Büro arbeiten könnten, ließen sich immerhin 850 000 Tonnen CO2 einsparen, so die Hochrechnungen der Wissenschaftler. Ein durchschnittlicher Haushalt in Deutschland kommt in etwa auf einen Ausstoß von 8,6 Tonnen CO2 pro Jahr.

Paul Clark, Senior Vice President und Geschäftsführer EMEA bei Poly

 

[1] https://www.arbeitswissenschaft.net/angebote-produkte/publikationen/azv-pub-gutachten-zur-mobilen-arbeit/

Kommentar von Prof. Dr.-Ing. habil. Sascha Stowasser zum ifaa-Gutachten zur Mobilen Arbeit

 

Prof. Dr.-Ing. habil. Sascha Stowasser. Foto ifaa

 

Orts- und zeitflexible Arbeit liegt im Trend der Zeit und ist eine wichtige Errungenschaft der Arbeitswelt 4.0. Wir gehen davon aus, dass sich in Zukunft der Anteil der Beschäftigten, die orts- und zeitflexibel arbeiten werden, noch weiter stark erhöhen wird. Immer mehr Beschäftigte wollen ihren Arbeitsort, ihre Arbeitszeit und ihre Arbeitsaufgaben selbstständig organisieren und somit das Arbeits- und Privatleben besser miteinander vereinbaren. Die Arbeitsforschung erwartet, dass orts- und zeitflexible Arbeit immer mehr zum Normalfall für einen Großteil der Beschäftigten wird.

Deutlich mehr Vorteile als Nachteile

Mit unserer Übersichtsstudie widersprechen wir der zum Teil aktuell vorliegenden skeptischen Berichterstattung zur Mobilen Arbeit. Wir konnten nicht belegen, dass die zeit- und ortsflexible Arbeit eine Reihe von Nachteilen mit sich bringt und eine größere psychische Belastung als das Arbeiten im Unternehmen mit festen Anwesenheitszeiten darstellt. Verschiedene ausgewertete Studienergebnisse weisen auf ein positives Bild und das enorme Potenzial der Mobilen Arbeit hin. Die Beschäftigten empfinden den geringeren Aufwand des Pendelns zum Arbeitsplatz, die bessere Vereinbarkeit zwischen Arbeitszeit und Privatleben sowie die gespürte bessere »Qualität« der Arbeitsblöcke –die Tätigkeiten lassen sich besser erledigen –als wichtige positive Errungenschaften der Mobilen Arbeit. Auch im Wettbewerb um qualifizierte Fachkräfte kann Mobile Arbeit einen wesentlichen Attraktivitätsfaktor für das Unternehmen darstellen. Neben den Chancen für Beschäftigte und Unternehmen leistet Mobile Arbeit einen wichtigen Beitrag zum Umwelt- und Klimaschutz. Als Effekt der Mobilen Arbeit können in ländlichen Regionen und Ballungsgebieten, die durch starke Ballungseffekte geprägt sind, umfassende Pendlerströme, Arbeitswege, Fahrtzeiten und der CO2-Ausstoß reduziert werden. Nach unseren Berechnungen sind enorme Einsparpotenziale in Bezug auf CO2, Fahrtzeit, Spritkosten und Abnutzung des Autos zu erwarten. In der Öffentlichkeit sind diese umweltpolitischen Aspekte weniger bekannt.

Unterschiedlichen Interessen der Unternehmen und der Beschäftigten in Einklang bringen

Eine Dramatisierung der Mobilen Arbeit sowie deren angeblichen negativen Folgen sind unbedingt zu vermeiden. Bestehende Risikofaktoren, wie eine schleichende Ausweitung von Arbeitszeit und unbezahlter Arbeit sowie interessierte Selbstgefährdung, lassen sich schon heute durch lösungsorientierte, betriebliche Regelungen reduzieren. Im Mittelpunkt der Diskussionen sollte ein ausgewogenes Verhältnis zwischen Zeitsouveränität und betrieblichen Belangen stehen. Ziel muss es also sein, die unterschiedlichen Interessen der Unternehmen und der Beschäftigten in Einklang zu bringen. Deshalb sollten die Arbeitgeber gemeinsam mit ihren Beschäftigten entscheiden, ob (bei weitem nicht jede Tätigkeit kann orts- und zeitflexibel ausgeübt werden, z. B. Produktion, Handwerk, Pflege) und wenn ja, unter welchen Voraussetzungen und Bedingungen orts- und zeitflexibel gearbeitet wird. Mobile Arbeit basiert aus unserer Sicht auf der »doppelten Freiwilligkeit«, das heißt beide –sowohl Arbeitgeber als auch Arbeitnehmer –einigen sich auf die »Spielregeln« und finden im allgemeinen betriebsspezifische Lösungen. Flexibles Arbeiten mit freier Zeit- und Ortswahl erfordert klare Strukturen. Eine Kultur des Vertrauens, verbindliche Absprachen, Planbarkeit und Eigenverantwortung gehören ebenso dazu. Pauschal formulierte Regeln liefern keine Antwort auf neue Herausforderungen. In der Praxis existieren zahlreiche positive betriebliche Lösungsansätze, Best-Practice-Beispiele, überbetriebliche Netzwerke und Handlungshilfen.

So enthält zum Beispiel der neue Tarifvertrag zum Mobilen Arbeiten in der Metall- und Elektroindustrie Rahmenregelungen für Beschäftigte, die zeitweise oder regelmäßig außerhalb des Betriebes tätig werden.

Möglichkeiten für Mobile Arbeit werden nicht ausgeschöpft

In unserer Studie zeigen wir, dass gegenwärtig die Möglichkeiten für Mobile Arbeit in Deutschland bei weitem nicht ausgeschöpft werden, obwohl die digitalen Technologien es ermöglichen, orts- und zeitflexibel zu arbeiten. Damit weitere Beschäftigte und Unternehmen die Mobile Arbeit nutzen können, ist es wichtig, gesellschaftspolitische Rahmenbedingungen, gesetzliche Regelungen, technologische und arbeitsorganisatorische Infrastrukturen in Unternehmen sowie Chancen und Risiken zu thematisieren.

Was muss in der Politik hierzu gelöst werden?

Die aktuellen Arbeitszeitregelungen und Arbeitsschutzbestimmungen basieren auf einem Normalarbeitsstandard mit geregelten Arbeitszeiten (z. B. 8-Stunden-Tag) und festen Arbeitsorten. Diese aus industrieller Anfangszeit stammenden Arbeitsmodelle passen nicht mehr in die Arbeitswelt 4.0 mit orts- und zeitflexibler Arbeit. Das bestehende Arbeitsrecht mit seinen veralteten und verkrusteten Regelungen (beispielsweise starr geblockten Ruhezeiten) muss an die neuen Realitäten, arbeitswissenschaftlichen Erkenntnissen sowie die Bedarfe von Beschäftigten und Unternehmen angepasst werden. Ein weiteres Augenmerk sollte auf der flächendeckenden Vermittlung von IT-Kompetenzen liegen. Digitale Technologien ermöglichen über alle Altersgruppen hinweg flexibles, zeit- und ortsunabhängiges Arbeiten und lebenslanges Lernen. Hier besteht Bedarf an Qualifizierungen auf allen Stufen des Bildungssystems. Bildung in der digitalen Welt ist eine gesamtgesellschaftliche Herausforderung, die ein gemeinsames Handeln aller gesellschaftlichen Akteure erfordert.

 

[1] https://www.arbeitswissenschaft.net/fileadmin/Downloads/Angebote_und_Produkte/Publikationen/FDP_Gutachten_Mobile_Arbeit_Finale_Version_15.10.2020.pdf

330 Artikel zu „Home Office“

Das Für und Wider von Home Office

Ein paar Stunden oder einen ganzen Tag von zuhause arbeiten – Home Office wird langsam beliebter. Laut einer Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) lag der Anteil der Beschäftigten mit Home-Office-Zeiten 2013 in privatwirtschaftlichen Betrieben mit mehr als 50 Beschäftigten bei 19 Prozent. 2017 waren es 22 Prozent. Wie die Grafik zeigt, gibt…

Wie sicher ist das Home Office? Warum mobiles Arbeiten anfällig für Cyberkriminalität ist

Ortsunabhängiges Arbeiten liegt im Trend. Ob von zu Hause aus oder auf Reisen – mobile Geräte ermöglichen Arbeitnehmern eine noch nie dagewesene Flexibilität. Eine Studie von Avast Business, in welcher Arbeitnehmer von kleinen und mittleren Unternehmen (KMU) in Deutschland befragt wurden, hat ergeben, dass 41 Prozent der Befragten am produktivsten sind, wenn sie von zu…

New Work mit Home Office, Mobilarbeit und flexiblen Arbeitszeiten – brauchen Unternehmen noch ein Büro?

Über die ganze Welt verteilte Standorte und Mitarbeiter, Fortschritte in der Technologie und sich ändernde Einstellungen zur Arbeit führen zu einem grundlegenden Wandel der Arbeitsweise von modernen Arbeitskräften. Das Ergebnis ist ein ständig wachsender Druck auf Unternehmen und IT-Abteilungen, sich an die neue Arbeitsweise der Mitarbeiter anzupassen. Laut einer Studie des UCaaS-Anbieters Fuze unter 6.600…

Top-Leistung: Acht einfache Tricks für konzentriertes Arbeiten im Home Office

Wie können Arbeitnehmer ihre Produktivität auch zu Hause erfolgreich optimieren. Home Office liegt im Trend – laut einer Studie des Instituts zur Zukunft der Arbeit (IZA) arbeiten inzwischen 38 Prozent aller Beschäftigten teilweise von zu Hause aus. Dank verschiedener Collaboration-Tools ist das ortsunabhängige Arbeiten für fast jeden möglich. Dennoch ist es für das Wohlbefinden der…

Vier von zehn Unternehmen erlauben Arbeit im Home Office

■  39 Prozent lassen Mitarbeiter von zu Hause aus arbeiten. ■  Jedes Zweite erwartet steigenden Home-Office-Anteil. ■  Bitkom: Heimarbeit erfordert klare Regeln.   Home Office wird in immer mehr Unternehmen zum Alltag. Vier von zehn Arbeitgebern (39 Prozent) lassen ihre Mitarbeiter ganz oder teilweise von zu Hause aus arbeiten. Innerhalb eines Jahres stieg der Anteil…

Arbeit: Wenige arbeiten im Home Office

Durch die Digitalisierung der Arbeitswelt ist das ortsunabhängige Arbeiten scheinbar auf dem Vormarsch. Vor allem Büroangestellte, deren Arbeitsgerät der Computer oder Laptop ist, können über das Internet auch von zuhause oder aus dem Café arbeiten. Wie unsere Infografik zeigt, ist diese Form der Telearbeit dennoch wenig verbreitet. Gerade mal 16 Prozent der arbeitenden Bevölkerung arbeiten…

Home Office: Keine Angst vor Kontrollverlust

Führungskräfte haben keine Bedenken, im Home Office die Kontrolle über Mitarbeiter zu verlieren. Mitarbeiter schätzen Flexibilität, allerdings fürchtet ein Viertel schlechtere Bewertung im Home Office im Vergleich zu Kollegen, die häufiger im Büro präsent sind. Home Office im Berufsalltag angekommen, Hot-Desk-Konzepte noch am Anfang.   In einer aktuellen Umfrage hat das Markt- und Meinungsforschungsinstitut YouGov…

Arbeitswelt: Home Office in Deutschland

IBM ist ein Pionier in Sachen Home Office. Bereits seit 1980 ermöglicht das IT-Unternehmen Mitarbeitern, von zuhause aus zu arbeiten. Entsprechend viel Beachtung fand die Nachricht, dass IBM 2.600 Marketingleute zurück in die Firmen-Büros beordert. Einem »Quartz«-Bericht zufolge hat es außerdem auch in weiteren Abteilungen Umstrukturierungen zu Lasten des örtlich flexiblen Arbeitens gegeben. In Deutschland…

Jedes dritte Unternehmen bietet Arbeit im Home Office an

■  30 Prozent lassen Mitarbeiter von Zuhause aus arbeiten. ■  Vier von zehn Unternehmen rechnen mit steigendem Home-Office-Anteil. ■  Geltende Gesetze erschweren flexible Arbeitsmodelle. Die Arbeit im Home Office wird zum Standard. In knapp jedem dritten deutschen Unternehmen (30 Prozent) können Mitarbeiter ganz oder teilweise von Zuhause aus arbeiten. Das entspricht einer Steigerung um 10…

Home Office: Arbeiten zu Hause boomt

In den vergangenen Jahren ist der Anteil der Unternehmen, die Home-Office-Arbeitsplätze anbieten, gestiegen. Das zeigt ein Vergleich der aktuellen Ergebnisse der Randstad-ifo-Personalleiterbefragung mit Ergebnissen aus den Jahren 2012 und 2013: So gaben 2012 rund 30 % der Unternehmen an, Home-Office-Arbeitsplätze anzubieten, im Jahr darauf lag der Anteil bereits bei 33 % und stieg auch zuletzt…

Immer mehr Home Offices bei deutschen Firmen

Immer mehr deutsche Unternehmen bieten ihren Beschäftigten die Möglichkeit, gelegentlich zu Hause zu arbeiten. Dieser Anteil stieg von 30 Prozent der Firmen 2012 auf 39 Prozent in diesem Jahr. Das ergibt sich aus der ifo-Randstad-Personalleiter-Befragung, die am Freitag veröffentlicht wurde. Das Büro zuhause bieten vor allem größere Unternehmen über 500 Beschäftigte an. Hier liegt der…

Viewing all 15792 articles
Browse latest View live