ICT-Business Support-Prozesse und Transformation in der Bauwirtschaft und Baulebenszyklus

bauinformatik_nextgen_ict_bauprozess

Alt bewährt – in Stein gemeisselt – aber noch zeitgemäss ?
Auf meinem ersten Bildungsweg in den Bereichen Bau-, Bauinformatik und Immobilien wurde noch viel mehr „analog“ aber mit „eigenem Köpfchen ohne dutzende von fehlerkorrigierenden digitalen Helfen im Hintergrund“ geplant und gearbeitet am Reissbrett, auf Skizzen, auf Plaupausen, Handnotizen, Baustellen-Rapporten, mit Schreibmaschine verfassten Werkverträge, handgeschriebenen Leistungs-Ausmassen oder Submissions-Unterlagen.
Die Mentalität von schnell was machen und ansonsten wieder zurück mittels „Zurück-Befehlen in Programmen“ gab es damals noch nicht. Komplexere Planelemente oder grafische Grundelemente wie nur schon einfache Linien von A nach B waren nicht gerade „in Stein gemeisselt“ aber fanden mittels Tintentusche eine permanente Druchdringung des verwendeten Planpapiers und mussten mühsam (wenn die Anzahl der Korrekturen dies überhaupt zuliessen je nach Dicke des Papiers …) weggekratzt oder wegradiert werden. So war die Art und Weise des täglichen Planungs- und Arbeit-Prozesses in den vielen Planungs- / Ingenieur- und Architektur-Büros und auch Baustellen-Büros eine fundamentale andere als der heutige mittels EDV-Unterstützung.

Bauinformatik per Lochkarte und 5.25″ Diskette
Es gab sie damals: die sagenumwobenen Monstermaschinen mit den super-ergonomischen Röhrenmonitoren und der grünen Schrift auf schwarzem Hintergrund welche vielfach genutzt wurden für Baustatik und Berechnungen.
Aber auch hier: eine entsprechende Statik-Berechnung musste – man staunt – schon vor der mehrstündigem Berechnungs-Lauf-Prozess sauber durchdacht und vorsimuliert sein im Kopf oder auf dem Papier. Mehrere Fehler durfte man sich nicht erlauben aufgrund der Laufzeiten, Lieferfristen und beschränkter Verfügbarkeit der Maschinerie. Auch musste man dann jeden Rechnungslauf sauber eintragen in einem Papierprotokoll für die interne und externe Abrechnung… Kaum mehr vorstellbar was das abgebildet auf den heutigen Umgang mit der EDV zur Folge hätte.

Planung und Verantwortung – ohne digitale Helfer wie Notebook, Smartphone, Internet, CAD, Projektprogramme
Das methodische, logische Vorgehen und vorallem das „zu Ende Denken“ mit allen Konsequenzen und darauf resultierenden Verantwortung prägte die Arbeitweise und letztlich den damaligen Bauprozess.
Ein „Gut zur Ausführung“ eines Planes oder ein vor Ort auf der Baustelle / Immobilie erteiltes „OK“ war nicht mehr so schnell korrigierbar ohne Smartphone, ohne Internet, ohne Email. Die Arbeit war viel bewusster und nachhaltiger. Es gab – im Gegensatz zu den heutigen Programmen – keine „Trial and Error“-Moeglichkeit mit einfachen Vor-Simulationen oder 3D-Visualisierungen – die Schritte mussten sozusagen auf Anhieb sitzen.

Digitalisierung des Bauprozesses mit Bauinformatik und Schnittstellen
Zunehmend hielten PCs / Macintoshs Einzug in die Planungsbüros und blieben nicht nur den Architekten, Ingenieure oder Büroinhaber vorbehalten sondern auch die Zeichner / Konstrukteure und zum Glück auch Lehrlinge durften davon profitieren in der Firma und in den Ausbildungsstätten. Modernere Software-Generationen für die Auftragsbearbeitung, Leistungserfassung, Ausschreibung, Werkvertragswesen, Abrechnung folgten zugunsten der weiteren Digitalisierung des Bauprozesses und letztlich des Business-Supports durch ICT.
Die unterschiedlichen CAD- und Auftragsbearbeitungs-Software verlangten nach standardisierten Schnittstellen und Austauschformaten für den Datenaustausch zwischen den Projektbeteiligten und zwischen den unterschiedlichen Software-Anbietern.

Die Planungs- und Leistungsbeschriebs-Unterlagen wurden datentechnisch „um Dimensionen“ erweitert mit 3D, Layers, standardisierten seitens Hersteller gelieferten Bibliotheks-Elementen, Kosten und letztlich einer Explosion von Datenzuwachs. Wie wir schon in der Wirtschaftsinformatik lernten stellte sich genau hier die Grundsatzfrage „Wann und mit welcher Business-Logik werden aus Daten verwertbare Informationen?“

Nichts ohne Standardisierungen und Normierungen
In meiner unverändert laufenden Tätigkeit seit über 13 Jahren in der Kommission für Informatik und Normenwesen beim Schweizerischen Ingenieur- und Architekten Verein http://www.sia.ch durften wir entsprechende schweizerische Normen / Merkblätter / Empfehlungen für die Fachbereiche wie CAD, Datenaustausch, Prozesse erarbeiten und verabschieden in verschiedenen Arbeitsgruppen und Publikationen.
Eines der grössten Spannungsfelder war die Tatsache, dass in der normativen Fachlehre meistens „zurück geschaut“ und „darauf basierend definiert“ wird auf das jahrelang Bewährte und wir uns konfrontiert sahen, genau diesen bisher üblichen Blick auf Jahre oder gar Jahrzente alte Normen / Standards in die entgegengesetzte Richtung in die Zukunft zu fokussieren und Widerstände zu überwinden in die Richtung der „Akzeptant mit fachlicher Penetranz“
Wir mussten auch feststellen, dass auch aufgrund einiger verstaubten Normen und Merkblätter schon einige grössere Firmen, Softwareanbieter oder professionelle Bauherren eigene, interne Standards etabliert hatten aus der Dringlichkeit und der fortgeschrittenen Entwicklung des Bauprozesse.

Bau-Industrie-Standards wurden reformiert – EDV-Standards schon länger
Einige Industrie- und SIA-Normen / Standards / Schnittstellen wie z.B. SIA 451, DXF, CAD-Merkblätter, NPK, BKP, eBKP bedurften einer Reformation auf prozess-mässiger und auch technologischer Ebene unter Berücksichtigung möglichster aller Verbände und Interessen-Gruppen wie auch Bauherren, Generalunternehmer, Immobilien-Bewirtschafter, Investoren, Banken.
Der Wandlungsdruck auch vom europäischen Einflussbereich der CEN-(DIN)-Normen hielt auch hier Einzug und es mussten immer mehr Interessen abgewägt und abgedeckt werden auf einer möglichst neutralen und produkte-neutralen, strategischen Ebene – aber immer wieder und zunehmend unterstützt und automatisiert durch Bauinformatik.

Transformations-Hemmnisse verhinderten aktiven Teilnahme und Optimierungs-Potentiale
Auf meinem zweiten Bildungsweg in den Bereichen Wirtschaftsinformatik / Engineering / Internet-Technologien sprach man schon Ende der Neunzigerjahre z.B. von „reformierendem“ Outsourcing / Application Service Providing (ASP) und andere Branchen transformierten sich bereits damals oder schneller in diese Richtung. Die Baubranche bzw. die damaligen noch bestehenden Abhängigkeiten von älteren sogenannten Legacy-Systemen, internen Standards oder nicht einfach so migrierbaren EDV-Prozessen verhinderten damals die grossflächige Teilnahme in dieser fortschreitenden Industrialisierung mit sich damals etablierenden neuen EDV-Standards. >> siehe separater publizierter Artikel

Akzeptanz und Verbreitung – beginnend bei der Ausbildungs-Pyramide
Die Verbreitung und Anwendung von neuen Normen / Standards und business-unterstützenden ICT-Prozessen waren nur sinnvoll und nachhaltig zu etablieren via der mehrstufigen Ausbildungs-Pyramide (Ausbildung, Weiterbildung etc.), der Verbreitung via Fachverbänden und dies begleitet mit den entsprechenden Merkblättern und Normen. Diese verzögerte Verbreitung und der Widerstand von bereits eigens etablierten Standards stellte eine weitere Herausforderung dar in der sich stetig verändernden Halb-Werts-Zeit des Fachwissens und der entsprechenden Akzeptanz und Adaptions-Müdigkeit.

Unterstützungs-Prozesse wie ICT, Normen-Adaptionen, Standard-Etablierungen – zu unrecht als reiner Kostenfaktor / zu recht als Nicht-Top-Prio der Nachfolgeregelung betrachtet
Jahrzentelang wurden entsprechende hochgelebte Standards teilweise aus unberechtigter Angst vor Zusatzkosten / neuen ICT-Prozessen oder Kontroll-Verlust am Leben erhalten und neue Chancen und Innovations-Potential verpasst.
Es schien beinahe unmöglich zu sein, die heiligen internen Standards / Prozesse / Vorlagen für Pläne / Leistungsverzeichnisse / Werkverträge / Bibliotheken zu ändern aufgrund auch von teilweise konzeptionell falsch aufgebauten Basis-Sets und Definitionen welche auseinanderbrechen zu drohten. Meinungen und Aussagen wie z.B. „Funktioniert ja alles und wir bauen seit Jahren so“ und „Uns fehlen die gesamtschweizerischen etablierten Standards und das Einführungswissen für eine strukturierte, effiziente Umstellung“ war dann eine gängige Ausprägung dieser Transformationsmüdigkeit.
Viele der betroffenen Organisationen befanden sich zusaetzlich auch in einer Uebergangslösung oder Phase der Nachfolge-Regelung seitens der Firmen-Inhabern und verständlicherweise waren vielfach die Prioritäten derweil anders gesetzt.

Der ganze Bau-Lebenszyklus wurde zunehmend voll-digitalisert
Entlang des ganzen Bau-Lebenszyklus mehrten sich zunehmend mehr professionell, monetär orientierte Interessen-Gruppen wie Investoren, professionelle Bauherren, Immobilienbewirtschafter, Gesamt-Systemanbieter und Banken / Versicherungen.
Die prozess-technischen und technologischen Anforderungen an die Outputs / Inputs aller Projektbeteiligten wurden komplexer und dynamischer und der entsprechende Minimal-Standard als an diesem Bauprozess teilnehmendes Unternehmen stieg rapide an.
Die eingeläutete (R)Evolution wurde begleitet von einer Reihe von neuen Produkten, Prozessen und Normen / Merkblätter. An der Baurationalisierung waren diverse Institutionen, Verbände und auch Firmen / Organisationen wie der SIA http://www.sia.ch und CRB http://www.crb.ch aktiv beteiligt.

Konzentration auf die Kernprozesse und Outsourcing von Supportprozessen
Der zunehmende Komplexitäts-Grad des Gesamt-Prozesses und Lebenszyklus verlangte nach interdisziplinären Zusammenarbeiten und teilweise auch auf Konzentrationen auf Kernkompetenzen und Hochspezialisierungen in Teilbereichen.
Hierzu wurden auch vermehrt für solche Supportprozesse entsprechend externe Berater / Systeme / Support hinzugezogen um das „Beste von Allem“ zu erhalten und nutzen zu können.
Hierzu gehörte auch der Bereich der Informatik >> siehe separater publizierter Artikel

Nächste Generation der digitalen Baurationalisierung
Neuere vielversprechende und visionäre Standards in Richtung BIM (Gebäudedatenmodellierung) stellen weitere Herausforderungen und riesige Potentiale dar.
Es bleibt zu hoffen, dass hier die entsprechende Wandlungsbereitschaft und Adaptierungsgeschwindigkeit rascher und effizienter erfolgen kann mit möglichst allen interdisziplinär zusammenarbeitenden Interessengemeinschaften und unter den Vorgaben und Vorarbeiten von der internationalen Organisation buildingSmart und dem offenen Standard openBIM. Das Basisdatenmodell IFC (Industry Foundation Classes) zur digitalen Beschreibung von Gebäudemodellen weckt grosse Hoffnung, dass der digitale Informationsfluss während des ganzen Lebenzyklus eines Bauwerkes weiter (r)evolutioniert wird.

Visionen und Chancen – ueber Big Data und Cloud zum gemeinsamen Erfolg
Rund 70% der schweizerischen Bauwerke sind aelter als 30 Jahre und stehen vor baldigen Umnutzungen, Renovationen oder gar Neubauphasen. Es bleibt zu hoffen, dass diese riesige Menge an zu erhebenden Daten für z.B. Renovation, Altlastensanierungen, Umnutzungen in wenigstens minimaler Detaillierungsstufe vorhanden sind und genutzt werden können … Es ist eher was Anderes zu erwarten … und genau kann man die Schwierigkeiten und Herausforderungen erkennen.
Meine persönliche Vision ist, dass man künftig z.B. zu jeder Zeit des Entstehungs- und Nutzungs-Prozesses entlang des Lebenszyklus zugreifen kann auf zentral (z.B. Immobilienbewirtschafter) oder dezentral (z.B. Baustoff- oder Bauteil-Lieferanten) gehaltene Informationen von Bauwerken.
Weitere Entwicklungen in den Bereichen wie „Internet of things“ bei welchem jedes Gerät künftig vernetzt und integriert werden kann in Facility Management Systemen oder nur schon in einer einfachen Heim-Vernetzung ermöglichen weiteren Innovationen und Potentiale.

Potentielle Einsatzmöglichkeiten von Big Data / BIM-Anwendungen
Folgende Use Cases sehe ich persönlich als Beispiele:

– Ein Planungsbüro, Baustellenbüro wird viel flexibler bei der Einrichtung und Unterhalt von stationären oder mobilen Arbeitsplätzen für die Mitarbeiter oder Projekt-Ausführungsorte. Der Mobile Workplace wird spätestens dann vollumfassend realisierbar und effizient nutzbar.
Die Arbeitsweise wird zumindest dann technologisch (r)evolutioniert und kann dann mit passenden Best Practices Anwendungen oder massgeschneiderten Prozessen (passend auf die jeweilige Organisation) ausgeschöpft werden.

– Ein Kalkulator, Projekt-/Bau-Leiter, Projektcontroller hat schon waehrend der Bauphase laufende Rueckmeldungen seitens z.B. der mobilen Leistungserfassung in die Kostenrechung, Nachkalkulation und immer wichtigerer Kostenplanung und Steuerung.

– Ein Immobilien-Verwalter kann während einer Objektbesichtigung mit dem Eigentümer direkt per Smartphone / Tablet / Notebook auf Pläne, Uebergabeprotokolle, Dokumentationen, Wartungs-Kontroll-Listen, Anleitungen zu eingebauten Geräten, Kennwerten, Messwerten vom Facility Management System oder Energie- / Verbrauchskosten zugreifen und direkt z.B. Reparaturaufträge, Aufträge an Hauswärte oder Dienstleister verwalten und erteilen.

– Eine  Immobilien-Bewertung oder Immobilien-Sanierung kann mittels Zugriff und Uebersicht auf Baumaterialien, Altlasten, Hersteller-Informationen oder ganzen Bauteilgruppen dazu beitragen die Kosten- und Ausführungs-Planungen stark zu optimieren.

– Ein Architekt oder Fachplaner kann auf einen Klick ermitteln welche Baustoffe, Bauteile, Bauelemente oder Geräte  in welcher Anzahl und Qualität verbaut werden oder wurden – mit auch seitens Produzenten online aktualisierten Werten zu z.B. Seriennummern, Chargenummern, Rezepturen, Produktedokumentationen, Nachweisen, CO2-Werten, Produkte-Haftpflicht-Themen.

– Expertisen rund um bauphysikalische, baubiologische oder bautechnische Beurteilungen werden mittels zugänglichen Basisdaten zu Bauteilen / Werten / Baustoffen / Pläne unterstützt.
Ergebnisse und Empfehlungen zum untersuchten Objekt könnten rückfliessen in den Bauobjekt-Datensatz für künftige Weiternutzung und History.

– Sanierungen oder Rückbauten wären mit guter Informationsbasis genauer planbar in den Bereichen Planung, Kosten, Ausführung oder Altlasten-Sanierungs-Massnahmen.

– Versicherungs- / Schadenfall-Abklärungen würden effizienter und genauer.

– Ein Service-Dienstleiter fuer z.B. Klima, Aufzuege, Heizung, Solaranlage, Smart Metering sieht sofort – oder via Gebaeudeleit-System / MSR – welche Elemente fehlerhaft oder defekt sind oder aufgrund von z.B. Serienfehlern ersetzt oder nachgebessert werden muessen.
Nebst dem zentral abrufbaren Elemente-Kataloges eines Objektes könnte man auch gängige Industrie-Standards wie RFID / NFC nutzen um direkt vor Ort entsprechende freigegebene Informationen zu einem Bauteil abrufen zu können.

– Ein Fensterbauer, Küchenbauer, Sanitäreinrichter, Schreiner kann innerhalb von Renovationen / Umbauarbeiten auf Basis-Datensaetze des urspruenglichen Werkvertrag-Vertrags-Unternehmers und dessen eingesetzten Elementen und Modulen zugreifen fuer eine effizientere Offertstellung, Kalkulation und Ausfuehrung.

– Ein Zimmermann, Holzbauer, Fassadenbauer hat Zugriff auf Plaene, Nachweise, Berechnungen fuer die Renovationsarbeiten.

– Ein Bauherr oder Investor oder Facility Management Dienstleister (FM) kann zugreifen auf seitens Gebäude-Sensorik unterstützten Key Performance Indexes (KPI) zur Erhebung von z.B. Performance-Beurteilungen, Wirtschaftlichkeitsberechnungen, Zinsberechnungs-Nachweisen oder Steuernachweisen.

– Statistiken und Erhebungen seitens Bund, Behoerden und Ämter sind autonom – selbstverstaendlich mit zuvor wissentlich freigegebenen und so klassfizierten Daten-Teilbereichen (z.B. XML, IFC, Metadaten oder ganze Datensaetze, Plaene, Dokumente) – bedienbar fuer weitere Kostenoptimierungen auf Seite des Bauherren, Bewirtschafters und Behörden.

– Bewilligungsverfahren bezueglich Kosten und vorallem Durchlaufzeiten koennten stark optimiert und vereinfacht werden auf Seite des Bauherren, Planer und Bauamt.

– Bei der Bauobjekt-Nutzungsphase sind sehr viele Visionen und Technologien auf dem Markt verfügbar in Richtung „Betreutes Wohnen für z.B. ältere Menschen welche länger in den eigenen 4 Wänden anstelle in einem Pflegezentrum verbringen wollen“, intelligentes Wohnen, kommunizierende Haushaltsgeräte für automatisches Ordering von z.B. Service, Bestellungen, Reparaturen und dergleichen. Auch hier kommen die Visionen und Ansätze „Internet der Dinge“, „Fiber to the home (ftth)“ und letztlich „totale Haus-Vernetzung“ zum Zuge.

Qualitätssicherung
Letztlich und zusammengefasst entsteht eine bessere Qualität des Gesamten – unterstützt mit qualitativ und massgeschneidert aufbereiteten, zentral konsolidierten Informationen. Während des gesamten Baulebenszyklus wird dadurch auch die Qualitätssicherung optimiert und beherrschbarer.

Sicherheit ist gewährleistet und definierbar
Selbstverstaendlich waere dann in einem solchen System sehr klare Richtlinien und Einstellungsmoeglichkeiten unabdingbar fuer einen restriktiven Datenschutz zugunsten der Sicherheit. Die Klassifizierung von Daten fuer z.B. Public (Behoerden, Bund, Statistik) oder Private (Eigentuemer, Bewirtschafter, Datenmanager, Servicedienstleister) wuerde dies technisch und zentral ueberwachbar unterstuetzen.

10 Jahre Aufbewahrungs-Pflicht und revisionssichere Archivierung
Im weiteren waeren dann auch Themen der 10 Jahre Aufbewahrungspflicht von auftrags- oder system-relevanten Informationen abgedeckt. Dabei waere dadurch neu auch die revisionssichere Archivierung realisierbar.

Eine Art „Building Smart Cloud“ – auch zur Unterstützung der „Cleantech“-Zukunft
Letztlich wird man basierend auf diesen einzelnen Use Cases schnell erkennen, dass ein künftiges System welches auf einem intelligent orchestriertem Cloud-System basiert, eine schier unbegrenzte Anzahl von Potentialen erschliesst oder Nutzungsformen unterstützt z.B. von mobile Worklpaces, Apps, Webservices, Cloud, Big Data.
Durch solche optimierte Prozesse und auch Unterstützung der Automatisierung in der Bauindustrie entlang des ganzen Lebenszyklus werden auch Ansätze von „Cleantech“ gefördert und/oder gar ermöglicht durch die Einsparmöglichkeiten in allen Bereichen des Gesamtaufwandes / Energie / Kosten / Qualität.

 

Advertisements

Windows XP (und 7?!) – End of Live eines DeFacto-Industrie-Standards: Auswege mit ICT-Strategie und Transformation

Swiss-IT-Magazine-Artikel_55814_XP-Eol-Auswege-Strategie-April-2014

Image

Sage und schreibe rund 37 Prozent wollen mit dem veralteten end of life Betriebssystem Windows XP derzeit weiterarbeiten.

Auf den ersten Blick scheint das nur Microsoft zu stören als Hersteller von Nachfolge-Lösungen. Auf den zweiten Blick jedoch werden jedoch weitere Probleme und Risiken entstehen innerhalb der gesamten ICT-unterstützten Prozess-Landschaft von Firmen und Organisationen.

Für interne oder externe ICT-Dienstleister entstehen hier weitere Herausforderungen wie z.B. Sicherheit, Updates, Stabilität, Kompatibilität, Risk-Management, Aufrechterhalten des stabilen Business Support durch ICT-Services. Umso mehr überrascht genau diese passive Migrations-Haltung von vielen Entscheidern / GLs / Verwaltungsräten. Eine provokative Analogie könnte im übertragenen Sinne folgendes Bild sein: „Firmenfahrzeuge werden trotz bekannten Problemen mit z.B. den Sicherheits-Einrichtungen“ seitens der verantwortlichen Führung wissentlich und fahrlässig weiterfahren gelassen.

Selbstverständlich muss auch ästimiert werden, dass das (damals moderne) Betriebssystem Windows XP sich damals zurecht als  DeFacto-Industrie-Standard etablierte und leider auch den Kopf herhalten musste über teilweise überbrückende Strecken zugunsten des „schlechtesten“ Betriebssystems aller Microsoft-Zeiten (Windows Vista). Entsprechend wurden dann ein DeFacto-Standard über (zu lange) Zeit etabliert auf der Basis von z.B. Windows XP, Office 2003, Server 2003.

Dieser etablierte Standard und auch das eher unbrauchbare Folgeprodukt Windows Vista bestätigte viele in deren Migrations- und Weiterentwicklungs-Passivität und Konzentration auf andere damalige Bereiche wie z.B. ERP- / CRM-Einführungen, Business-Support durch ICT, Erstberührungen oder Ausbau mit Outsourcing (Cloud).

Die „XP-Ära“ war dadurch gefestigt worden und auch die Software- und System-Anbieter etablierte Standards mit einer mittlerweilen unglaublichen Laufzeit von über 12Jahren. Eine beinahe erschreckende wenn nicht gar fahrlässige Passivität in den Innovations- und Transformations-Prozessen müssen sich einige Hersteller, Lieferanten, Systembetreuer und letztlich Führungsverantwortliche gefallen lassen.

Aufgrund der bekannten Abhängigkeiten und Relationen der Gesamt-System-Komplexitäten und Lieferanten kann man das noch einigermassen nachvollziehen. Es stellt sich jedoch die Frage ob innerhalb den klassischen Führungsaufgaben der ICT-Teilbereich der Firmen-Strategie zu passiv bewirtschaftet wurde.

Offensichtlich wurden schon früher gewisse strategische und planerische Aufgaben nicht rechtzeitig gemacht. Auch stellt sich letztlich die Frage ob all die Audits, Revisionen und Internen Kontrollsysteme (z.B. IKS, Business Contingency System BCS / BCP) nicht gegriffen haben für die frühzeitige Erkennung und Massnahmen von solchen lange bekannten Umständen und Risiken.

Ja! Auch hier ist die Führungsebene in der unveränderten Pflicht, den Informatik-Bereich zu unterstützen oder deren Entscheide zu prägen / steuern oder auch kritisch zu hinterfragen. ICT wird immer noch als reine Kostenstelle und leider nicht als strategischer, innovations-treibender Vorteil gegenüber Mitbewerber betrachtet.

Einige Fakten und Möglichkeiten stehen fest und zur Verfügung zur aktuellen Situation:

–       Ohne entsprechende Sicherheitsmassnahmen, Updates (unrealistisches „eigenes“ Servicepack 4) und ohne erweitertem Support ist Windows XP in Firmennetzwerken ein möglicher Störfaktor für andere Systeme, Prozesse und Schnittstellen.
Beispiel aus der Praxis: 1 einzelner ungeschützter Rechner welcher nicht sauber isoliert oder gesperrt ist vom Netzwerk kann die ganze Organisation, den Internet-Zugang oder deren Mail-Infrastruktur auf internationale Mail Spam-Blacklists bringen und lahmlegen für die Mail- oder Internet-Kommunikation.

–       Eine durch aktuellere Webbrowser teil-abgesicherte Internet-Nutzung ist ebenfalls sind nur noch beschränkt möglich da die aktuellsten Webbrowser und Software-Produkte sich gar nicht
mehr oder nur mit mühsamen Umwegen installieren lassen.

–       Sogenannte „Zero Day Attacken“ (gezielte Angriffe am Tag oder zeitnaher Folgezeit der
Sicherheits-Lücke) ab dem EoL 08. April 2014 sind denkbare Szenarien und Zusatz-Risiken und dann die nicht speziell geschützten Windows-XP-Umgebungen und deren teilweise betriebskritischen Umsysteme gefährden.

–       Künftige regulatorische Vorgaben und Empfehlungen von z.B. Behörden / Gesetzen / Verbänden / Revisionsstellen / IKS / Audits für zukunftsorientierte Herausforderungen, neue dynamische Bedrohungslagen und angepasstem Risk-Management sind nicht mehr abbildbar.

–       Einzelne Virenschutz-Software-Hersteller bieten einen weiterlaufenden Support. Hier stellt sich aber eher die Frage ob dann genügend Schwachstellen abgedeckt werden können neben dem „löcherigen“ Betriebssystem Windows XP selber.

–       Der Umstieg auf in grosser Zahl vorhandene Open Source Produkte stellt keine echte Alternative dar – nur schon hinsichtlich teilweise fehlender Kompatibilität, fehlendem internen KnowHow, eingeschränkt verfügbaren Supportorganisationen, ebenfalls offenen Sicherheitsthemen und nicht darauf ausgerichteten Prozessen und Schulungen.

–       Das Isolieren auf Basis des Netzwerkes / Virtualisierung, das Sperren oder Löschen von lokalen Wechseldatenträgern / Firmendaten / USB-Anschlüssen / CD-DVD-Laufwerken für das Verhindern von der Einschleusung von schadhafter Software oder das Deaktivieren des Internets sind nicht immer praktikabel und erhöhen den Gesamt-Betriebsaufwand wiederum.

–       Die Gesamt-Kostenrechnung von solchen zunehmend zu isolierenden Umgebungen steigt
rasch an und auch ein optional sogenannt „erweiterter Support seitens Microsoft“ ist sehr kostenintensiv und vielerorts nicht mehr tragbar aufgrund vom Kostendruck (z.B. Vergleich zu massgeschneiderten Cloud-Services)

–       Ein „Ende mit Schrecken“ durch eine geplante, überprüfte Migration auf z.B. Windows 8.x / Office 2013 / Office 365 / Server 2012 mit vielen verfügbaren guten Tools und Migrationspfaden ist vielfach lohnenswerter als ein „Schrecken ohne Ende“ durch die mühsam aufrechtzuerhaltende Windows XP / Office 2003 Umgebung und dem teilweise auch anwachsenden KnowHow-Vakuum.

–       Migrationen und Transformationen bieten auch Chancen für Innovationen und Weiterentwicklungen in Prozessen und letztlich auch in Personalbelangen.
Viele ICT-Serviceorganisationen erkennen darin letztlich auch Chancen als Überlebensfaktor
im Vergleich zu anderen internen oder externen Mitbewerben oder Cloud-Lösungen. Hierbei werden zunehmend auch externe ICT-Coaches, „Cloud Solution Experts“ oder „Solution Brokers“ konsultiert für „Das Beste aus den Clouds“

–       Eine sauber geplante Transformation ebnet bei vielen Organisationen auch den Weg und Basis für moderne homogenisierte Cloud-Lösungen (Private / Public / Hybrid) bei flexibleren, besser budgetierbaren Kosten, nutzungsoptimierten Services und auch Unabhängigkeiten von kritischen KnowHow-Trägern und proprietären Systemen.

–       Das sehr stark optimierte Betriebssystem Windows 8.x lässt auch je nach Hardware einen sogenannten „Refresh von bestehender Hardware“, „Clientunabhängiges Windows2Go auf USB-Stick“ oder diverse „Virtualisierungs- / Deployment Szenarien“ zu und hilft dadurch weitere Kosten zu optimieren in Bereichen wie z.B. Flexibilität, Sicherheit und (Hybrid)-Cloud-Umgebungen.

–       Länger bekannte Bedürfnisse in den Bereichen wie „Bring your own Device (BYOD)“, People Centric IT (PCIT), geräte- und standort-unabhängige Workplaces bei maximaler Mobilität sind nicht mehr realisierbar.

–       Die zunehmend gewünschte Verschmelzung von den unterschiedlichen Geräte-/Form-Faktoren wie PC, HomeOffice, Client, Ultrabook, Tablet, Smartphone sind nicht mehr effizient / zentralisiert abbildbar.

–       Moderne, attraktive Arbeitsplätze – mit eben auch einem guten ICT-Business Support – sind zunehmend auch positiv wirkenden Faktoren bei der Personal-Rekrutierung und Arbeitgeber- / Arbeitsplatz-Attraktivität.

–       Die zentrale Verwaltung in Themen wie z.B. Richtlinien, Hardening, Datenschutz, Verschlüsselung / BitLocker, Remote-Zugang per DirectAccess, Audit, Inventarisierung, Softwareverteilung, Lizenzverwaltung, Alerting, Compliance ist mit Windows 8.x speziell in Zusammenarbeit mit z.B. Windows Server 2012 / System Center oder auch Windows Intune ideal abdeckbar.

–       Der KnowHow-Aufbau und interne Schulung von Mitarbeitern wird vereinfacht und intuitiver mit den neuen Versionen von Windows und Office und gegebenen Möglichkeiten der z.B. gemeinsamen Zusammenarbeit, Desktop-Sharing, Remote-Unterstützung, VideoConferencing

–       Neuere und intuitivere Bedienungskonzepte, Software-/App-Generationen mit verschmelzenden Bedienungsoberflächen und künftig immer weniger Betriebssystem-Versionen (bzw. bald mal nur noch einem Betriebssystem auf allen genutzten Geräten …) eröffnen ein riesiges weiteres Transformations-Potential

–       Weitere Zukunftsthemen wie z.B. zentral verwaltete Enterprise- / CompanyPortal-Apps / Webservices / Streaming per auch „Click to run“ und Nutzung ab auch Smartphones und Tablets sind nur neueren Versionen und Technologien vorbehalten.

–       Cloud-Lösungen wie z.B. Office 365 mit auch Windows Intune können Teilbereiche wie Nach- oder Neu-Lizenzierung von Betriebssystem Windows 8.x oder Office 2013 sehr kostengünstig und mit vielen prozessoptimierenden Zusatz-Funktionen abdecken. Selbstverständlich kann das Unternehmen auch hier entscheiden ob z.B. Office Lizenz / Betriebssystem nur isoliert lokal betrieben werden ohne Daten oder Services in der Cloud (z.B. für auch reine Lizenzierung von Office 2013 und Windows 8.x)

–       Hoffnungsvolle Briefe, Mails und Medien-Meldungen an die Adresse des neuen Microsoft-CEOs mit der Botschaft „Bitte lasst Windows XP länger leben da wir mehr Zeit brauchen“ oder „Wir bitten um Einsicht weil wir nichts dafür haben, dass wir auf Windows XP geblieben sind wegen dem untauglichen Nachfolge-Produkt Windows Vista“ oder „Wir wollen nicht automatisch mit der Cloud verbunden sein mit neueren Betriebssystemen oder Technologien / Services“ werden wenig nützen …

Ach ja! Zu guter Letzt: Wer sich mit Windows 7 derzeit ganz sicher fühlt wird bedenken müssen, dass offiziell gemäss Microsoft auch hier der grundlegende Basis-Support ebenfalls bereits wieder ausläuft ab 2015 gemäss aktuellen Informationen und muss auch bedenken, dass das letzte grosse Windows 7 Servicepack 1 vom Jahr 2011 stammt. Ob auch hier Microsoft eine allfällige Verschiebung dieses Datums macht – aufgrund der forcierten Windows 8.x Markteinführung und angekündigtem Produktelaunch von Windows 9 ab 2015 – ist eher fraglich derzeit. Das Zeitfenster fuer den Erfolg in dieser Transformation ist beschraenkter und kleiner als viele denken.

Daraus publiziertes Zeitungs-Interview: Windows XP end of life – Ende und Transformation eines Industrie-Standards

XP-end-of-life-Artikel-FS-20140304

Daraus publizierter Zeitungsartikel: Swiss IT Magazine – April 2014

Swiss-IT-Magazine-Artikel_55814_XP-Eol-Auswege-Strategie-April-2014

https://twitter.com/fridel_on_road

ICT-Support-Strategie für KMU – intern oder extern? Hauptsache von Allem das Beste!

idee-innovation-plan-ict-strategie-tranformation

Die zunehmende Auseinandersetzung bei KMU in der Schweiz mit Themen wie (Hybrid)-Cloud-Services bringt auch zwingende andere Teilaspekte in der gesamten ICT-Prozesslandschaft in den Fokus (z.B. Prozesse, Transformation, Innovation).

In einen grundlegenden Basis-Hauptaspekt des ICT gehört unteranderem der Support-Prozess mit den Teilaspekten wie Service Level (SLA) und Supportorganisation.

Veränderte, dynamische Marktanforderungen an Unternehmen reduzieren sich schon längst nicht mehr nur auf branchen- oder produktions-spezifische Herausforderungen.
Zunehmend werden entsprechend auch Optimierungen in der ICT ein potentieller und gar strategischer Vorteil im Markt und künftigen internen und externen Anforderungen.

Entsprechend unterzieht sich auch die ICT in den KMUs in einem dynamischen Wandel und strategischer Transformation.

Um auf diese Transformation gerüstet zu sein braucht es eine durchdachte und langfristige Betrachtung und eine von der Firmen-Strategie abgeleitete ICT-Strategie.

Eine „ICT-Support-Strategie bei KMU“ ? Bei sehr vielen KMUs müsste zuerst mal überhaupt eine solche entwickelt werden welche diesen Namen verdient und weiter geht als z.B. nur definiert zu haben welcher interne Mitarbeiter sich zwischendurch um ICT kümmert.

Der jahrzentelange Standard des klassischen internen ICT-Ansprechpartners welcher sich nebst seinen ausgebildeten Hauptaufgaben / Kernkompetenzen nebenbei oder teilweise gar ausserhalb der Arbeitszeit semi-professionell mit den Firmen-Systemen beschäftigte scheint zunehmend nicht mehr auszureichen.

Die Komplexitäten der Anforderungen, Schnittstellen, Systemabhängigkeiten, Verfügbarkeiten gepaart mit den extrem schnellen Lebenszyklen von neuen Technologien, Clouds und Produkte-Versionen verunmöglichen diesen „Nebenbei-Job“ zunehmend.

Es kann auch behauptet werden, dass die „Halbwert-Zeit“ des ICT-Wissens immer kleiner und negativer wird und es umso schwieriger ist auch hier noch nebenbei mitzuhalten einem internen Teil-Pensum und vorallem ohne externe Erfahrungssammlungs-Möglichkeit.
Die sogenannte „Handson“-Erfahrung auf vielen veralteten Systemen reicht nicht mehr aus um auf neuen Technologien / Automatisierungen / Homogenisierung / Standardisierung / (Hybrid)Clouds nebenbei wieder Herr zu werden. Auch fehlt die Quer-Erfahrung / Generalisten-Wissen von externen Organisationen oder anderen Systemen. Kritisch ist vorallem auch der meist gegebene Umstand, dass noch nie (oder zu selten) echte Business-Recovery-Vorfälle / Komplett-Ausfälle gelöst werden mussten und dieses kritische Wissen nicht vorhanden ist.

Es gibt aus dieser Entwicklung dieses lange funktionierenden Systems einige branchen-bekannte Typologie-Bezeichungen wie z.B. „Turnschuh-Supporter welcher von Baustelle zu Baustelle rennt“ oder das „Hey-Joe-Prinzip“

Das „Hey-Joe-Prinzip“ beschreibt die meist negativen Auswirkungen der im IT-Support problematischen gutgemeinten und vielfach so entstandenen “Nachbarschaftshilfe”  (sogenannter Peer Support), die dabei meist den vorgesehenen Support-Prozess (Workflow) oder Weisungen umgeht.
Das geschieht vielfach (wir kennen das alle…), in dem der Anwender die Hilfe für eine Problemlösung über eine inoffizielle Anfrage in seinem firmeninternen Mitarbeiter-Kreis erbittet, anstelle das eigentlich dafür vorgesehene interne oder externe Servicedesk zu kontaktieren. Das wird vielfach plakativ entsprechend mit „Hey Joe…“ beschrieben und verspottet.

Daraus lässt sich meist in einer Gesamtkosten-Betrachtung nachweisen, dass genau dieser IT-Support auf Zuruf teuer und vorallem nicht kosten-transparent ist.
Dass es diese Art von Support überhaupt noch gibt, liegt eigentlich nur noch daran, dass interne IT-ler „so nette“ und hilfsbereite Menschen (mitunter auch fahrlässige Ein-Person-Abhängigkeiten) sind und lange Jahre seitens der Führungsebene so beauftragt wurde. Diese Support-Organisation – vielfach nach dem Prinzip „ohne Gewähr“ oder „nach best effort“ – wurde mitunter mit auch halb-verschlossenen Augen geduldet seitens Kontrollorganen wie Verwaltungsrat, Controlling / Audit oder Internem Kontrollsystem (IKS).

Helft Joe! Holt Hilfe!
Der gute Joe kriegt dadurch zunehmend Terminkollisionen mit seinen anderen Aufgaben und Projekte, bekundet zunehmend Zeitprobleme die entsprechende Dokumentation / KnowHow-Transfer aufrechtzuerhalten, implementiert mitunter gewisse Workarounds / Symptombekämpfungen anstelle Ursachen- und Problem-Behebungen und leidet allenfalls irgendwann an einer „systemtechnisch spürbaren“ Demotivation oder gar Erschöpfungs-Depression. Schliesslich gibt es dann ja auch während der Freizeit, Wochenende und Ferienzeit dann die netten Anrufe an die One-Person-Supportorganisation zu den „riesigen ICT-Probleme in der Firma“
Hier ist das Angebot von extenen ICT-Dienstleistern für die umfassende Betreuung / Coaching vor Ort oder dann in (Hybrid)-Clouds eine gängige und zunehmend eine letztlich „comliance- und Controlling-taugliche“ Hilfestellung – zum Glück auch Sicht der letztlich dafür verantwortliche Führungsebene.

Hut ab! Prozess auf!
Diese Agilität und grosse Hartnäckigkeit des internen Teilzeit-ICT-Supports ist bemerkenswert und war jahrzehntelang eine sehr wertvolle ICT-Rückversicherung in KMUs.
Nun geht es darum, gemeinsam mit externen ICT-Dienstleistern dieses mächtige interne Fachwissen zu konsolidieren und gemeinsam weiterzuentwickeln in zukunftssichere ICT-Prozesse und intern / extern aufgeteilte ICT-Supportganisationen.
Die Erfahrungswerte von der internen und externen Sicht führen dann immer wieder zu den massgeschneiderten „best practices“ Support-Organisationen und Lösungs-Ansätzen.
Und hier muss dann genau darum nicht immer gleich von ITIL, COBIT etc. gesprochen werden in KMU-Organisationen da hier durchaus auch adaptierte und bewährte Ansätze generiert werden können.

Es geht weiter! und wird messbar!
Durch solche neu entstehende Partnerschaften oder ganz neue ICT-Supportorganisationen entsteht eine komplett neuausgerichtete Basis für vorher schwer realisierbare ICT-Anforderungen wie z.B. (Hybrid)-Cloud, Gewaltentrennung, Datenschutz / Datenhoheit, Schulung / KnowHow-Transfer, Mobilität / Mobile Workplace / HomeOffice, ByoD, PcIt (People Centric IT), Consumerization, erweiterte Servicezeiten, Identity Management / SingleSignOn.
Die Prozessmessbarkeit in einer solchen Re-Organisation und Transformation ist dann ein weiterer Faktor einer solchen Konzeption „Das Beste von Allem“ – sei es bezüglich Support-Dienstleistung oder „das Beste aus den Clouds“

Dass durch eine solche gemeinsame Gesamt-Lösung mit externem Fachwissen auch z.B. die zunehmend strategische System-Migrationstauglichkeit / Homogenisierung bei optimierter Standardisierung für eine künftige Transformations-Flexibilität ermöglicht wird liegt auf der Hand und ist ein weiterer entscheidender Vorteil in einer längerfristigen Strategie-Legung.

Die ganze Entscheidung in eine solche Support-Re-Organisation ist natürlich immer auch eine Frage nach der Perspektive. Fakt ist, dass die zunehmend regulatorischen oder branchenüblichen Anforderungen (Behörden, Revision, Audit, Verwaltungsrat, Führung, Internes Kontrollsystem (IKS), Cobit, ITIL) immer mehr Prozessoptimierungen bei Risikominimierungen verlangen und diese vielfach bei KMU nur noch mit externer Teil- oder Voll-Unterstützung abdeckbar sind.

Langjährige Erfahrungen aus der Praxis zeigen eindeutig den Trend und Nutzen auf von solchen extern unterstützten Supportorganisations-Formen bei KMU.
Die dadurch zurückgewonnene Konzentration-Rückfindung auf das Kern-Business generiert z.B. auch nachvollziehbare Gesamt-Kosten- und letztlich auch Wettbewerbs-Vorteile.

Fachkräftemangel akzentuiert bei KMU. Bitte nicht wieder ein „Hey Joe!“
Speziell der Umstand, dass eine z.B. Nachfolge- oder Unterstützungs-Person schwer rekrutierbar ist im ausgetrockneten Personal-Angebot in ein solches KMU-ICT-Umfeld mit „nur“ Teil-Bereichs-Aufgaben stellt auch das Personal-Thema / Humankapital-Management in sehr grosse Herausforderungen bezüglich aktuellen Mitarbeiter-Anforderungen an z.B. Flexibilität, interessantes (ICT)-Arbeitsumfeld (Bitte nicht „Hey Joe!“…, neueste ICT-Technologien / Cloud / Automatisierung), Entlöhnung

Durch Transformation entstehen Innovationen!
Viele KMU – zwingend gestützt durch die Führungsebene – packen zunehmend diese vielen Chancen durch Transformation zu auch neuen Innovationen zu gelangen. Dass dabei auch die betriebswirtschaftlichen Aspekte bezüglich budgetierbaren Kosten, Prozess-Messgrössen bezüglich Qualität / Mitarbeiterzufriedenheit mit/durch die ICT bei tiefer Kapital-Bindung positiv sind je nach massgeschneiderten Angeboten sind weitere Entscheidungsrelevanzen.

Publizierter Artikel im SWISS IT MAGAZINE:

SWISS-ITMAGAZINE-Support-Strategien-ITM05_34_

Sicherheits-Anforderung versus eigener Sicherheits-Sensibilität

datenschutz_sensibilisierung

Alle sprechen und polemisieren vom grossen Sicherheits-Risiko im ICT-Bereich und speziell in der Cloud.

Viele entsprechende Medien-Meldungen rund um z.B. unkontrollierbare Cloud-Infrastrukturen, Internet-Spionage, NSA-Datensammlungen, Datenabfluss, Sicherheitslücken, Hacker-Angriffen, Systemausfällen, Verlust von tausenden von Emails, Mitarbeiterüberwachung schüren jene verständliche Aengste und Vorbehalte – zu recht oder zu unrecht?

Viele Vorbehalte haben mit z.B. auch einer vermeintlichen anwachsenden Kontroll-Unfähigkeit oder gar Angst einer gänzlichem Kontroll-Verlust (wo genau sind die Daten? Wer hat Zugriff darauf?) zu tun in den stetig wachsenden Komplexitäten oder verteilten Systemen (intern/extern, Private/Public Cloud, Hybrid Cloud)

Dass hierbei speziell ein „Controlling-Freak“ auch Emotionen entwickelt gegen solche dynamischen und nicht mehr zu 100% kontrollierbaren (Cloud)Systemen ist ebenso nachvollziehbar.

Im Zuge der Globalisierung und der globalen Vernetzung wurde die systematische Spionage und Angriffe in den Bereichen wie z.B. Patenten, Rezepturen, Codes, Markenschutz, Mitarbeiter-Abwerbung (Hunting for talents, mit dann auch Insiderwissen oder Firmen-KnowHow-Abfluss) zunehmend nicht nur mit technischen Mitteln durchgeführt. Zunehmend wurde auch gezielt auf das sogenannte Social Engineering (Stichworte: Bestechung, Telefon-Täuschungen, Ausnutzung von schwachen persönlichen Kennworten, Zugang auf Systeme und Informationen via einem Mitarbeiter anstelle via einem technischen System) fokussiert mit erschreckendem „Erfolg“

Der Trend via der „Hintertüre Mensch“ sollte den Fokus des eigentlichen Hauptproblems verschieben.
Folgend einige entsprechende Fragestellungen zur Relation der Problematik und zu den erkennbaren Anknüpfpunkten:
Was für einen Schaden kann ein frustrierter, ehemaliger Mitarbeiter anrichten oder verkaufen? Was für firmen- und personen-sensitive Daten werden täglich entsprechend via Social Media / Online Plattformen publiziert von eben „Menschen“ und nicht „Maschinen“?
Besteht ein Datensicherungs-Konzept mit externer Aufbewahrung der Sicherungsmedien?
Besteht ein genügender physischer Zugangs-Schutz oder Kontrolle zu den z.B. Servern, Backup?
Werden überhaupt Datenrücksicherungs-Tauglichkeiten sporadisch „echt“ praktisch geprüft?
Welche Webseiten / Firmen-Emails / Webmail-Zugänge mit möglichen schadhaften Codes werden täglich ohne entsprechende technische Infrastrukturen unbemerkt während der Arbeitszeit aufgesucht, versendet und gefüttert mit „heiklen“ Daten?
Bestehen intern überhaupt Weisungen / Sicherheitsrichtlinien / Geheimhaltungsvereinbarungen im Umgang mit der EDV und insbesondere mit dem Internet? Sind diese verbindlicher Bestandteil des Arbeitsvertrages?
Gibt es eine spezielle ICT Security Policy oder einen internen Sicherheitverantwortlichen für den ICT-Bereich? (Schliesslich gibt es ja auch Sicherheitsverantwortliche bei z.B. Bauunternehmungen, Baustellen, Produktion)
Gibt es innerhalb der Qualitätssicherung (z.B. IKS Internes Kontrollsystem) eine Teilbereichs-Kontrolle der ICT-Prozesse?
Werden die Mitarbeiter speziell sensibilisiert oder geschult für die Informatik-Sicherheits-Belangen?
Wie wird kontrolliert und überwacht ob nicht in jedem Fall freigegebene Cloud- / Synchronisations- / Social-Media-Anwendungen (wie z.B. DropBox, SkyDrive / OneDrive, iCloud, Facebook, Youtube, Xing, kununu) auf den Mitarbeiter-Arbeitsplätzen installiert sind?
Ist die Führungsebene eingebunden (auf Stufe GL und VR) in die Strategie-Definition und Planung von ICT-Umgebungen und deren Sicherheits-Vorgaben und Controlling-Mechanismen?
Werden auftrags- oder firmen-sensible Daten geschützt ausgetauscht mit externen Partnern / Lieferanten / Kunden / Revision / Buchhaltung / Behörden?
Gibt es intern ein Klassifizierungs-Konzept für die Unterscheidung und Definition von zu schützenden oder ungeschützten Daten?
Wurde das Thema ICT-Sicherheit als fortwährendes Risiko mit realistischer Eintrittswahrscheinlichkeit integriert in das Risk-Management?

Wie man unschwer erkennen kann in obigen Fragen wurde eigentlich (bewusst in einer ersten Phase …) noch gar keine Fragen nach den „externen“ Bösen / Hackern / spionierenden Staaten oder der „unsicheren“ Cloud gestellt …

Die Gesamt-Sicherheit ist einem gesamten Rahmen zu sehen – beginnen tut diese aber sicherlich in der internen, selbstkritischen Betrachtung von eigenen Prozessen und Infrastrukturen und erst danach bzw. wenn das bereinigt, geklärt, definiert und kontrolliert ist sollte man den Fokus erweitern in Richtung der externen Abhängigkeiten, Hackern, Cloud etc.

Die ICT-Gesamtsicherheit bzw. letztlich die ICT-Strategie ist ein umfassender Gesamt-Prozess und Verantwortlichkeit auf der Führungsebene und nicht nur eine Ansammlung von Technologien / Produkten / Tools.
Der Faktor Mensch ist unter diesem Aspekt wichtiger und heikler als der Faktor Maschine.

Dabei ist auch der Aspekt des Risk-Managements sehr wichtig.
Eine 100% Sicherheit bei Mensch und Maschine gibt es nicht und wird es nie geben und hier ist es die Aufgabe der Führungsebene oder Kontroll-Gremien (Audit, IKS, Controlling) genau diese Rest-Risiken zu identifizieren, zu werten, zu testen und mit gangbaren präventiven Massnahmen und Prozessen zu reduzieren und sporadisch zu prüfen (so gut es geht eben …)

Aus diesen Aspekten heraus empfehle ich: Bevor irgendwelcher externer, technischer Schutzwall aufgebaut wird, sollte man als Basis die internen Prozesse / Sicherheit / Risk-Management transformieren.

>> Siehe daraus publizierter Artikel im „Management Magazin“ von SIA Schweizerischer Ingenieur und Architekten Verein
Management-Magazine_4_2014_GER_FRA