KPI OF THE MONTH

Seit der Gründung der axeba im Jahr 2002 haben wir 97 Unternehmen mit insgesamt gut 350 000 PC gebenchmarkt und über 300 000 Benutzer zu Ihrer Zufriedenheit befragt. Im KPI of the month stellen wir jeweils eine relevante Kennzahl vor.


Die Sachkosten machen 50% der Workplacekosten aus

Workplacekosten nach Kostenarten

Im letzten KPI of the month haben wir gesehen, dass ein Workplace pro Benutzer CHF 166 im Monat kostet und wie sich diese Kosten auf die Gebiete Service Desk, Onsite Support, Endgeräte, Server, LAN, Telefonie & Collaboration, E-Mail und Client Software Management verteilen. Betrachtet man, wie hoch dabei die Personal- und Sachkosten sowie die Outsourcing-Kosten sind, ergibt sich das folgende Bild:

Aufteilung der Workplacekosten

 

Einige IT-Abteilungen haben einen Teil ihrer Leistungen an einen Outsourcing-Partner übergeben. Dies macht über alle untersuchten Firmen hinweg einen Anteil von 16% aus.

Den grössten Anteil haben die Sachkosten mit 50%. Dieser Kostenblock wird vor allem dominiert durch die Endgeräte, die komplett aus Sachkosten bestehen, sowie die Server und das LAN. Ebenfalls sehr sachkostenlastig ist das Gebiet Client Software Management, das durch die Microsoft-Lizenzen dominiert ist.

An zweiter Stelle folgen die Personalkosten, die einen Drittel der gesamten Workplacekosten ausmachen. Bei Sparprogrammen ist es wichtig, zu verstehen, dass beim Workplace die Personalkosten nur einen geringen Teil der Gesamtkosten ausmachen. Über die ganze Firma betrachtet machen die Personalkosten häufig 80% aus. Daher liegt in der Regel der grösste Hebel in diesem Bereich, wenn es darum geht, die Kosten zu senken.

Da beim Workplace jedoch die Sachkosten den grössten Teil ausmachen, lohnt es sich in der Regel, die Personalkosten nicht zu reduzieren, sondern die Engineers zu beauftragen, möglichst kostengünstige Lösungen zu entwickeln und betreiben und so die Sachkosten zu senken.

Über alle untersuchten Firmen hinweg betreut eine Person im Bereich Workplace durchschnittlich 191 User. Bei einem hohen Outsourcing-Anteil steigt diese Zahl natürlich und falls alle Leistungen selbst erbracht werden, sinkt diese Zahl geringfügig.

Fazit: In der Regel lohnt es sich, die internen Spezialistinnen und Spezialisten nicht zu reduzieren, sondern diese zu beauftragen, möglichst gute und kostengünstige Lösungen zu entwickeln und betreiben.


Der Support macht 20% der Workplacekosten aus

Workplacekosten pro Benutzer im Monat

Während der Workplace im Jahr 2002 noch rund CHF 500 pro Benutzer und Monat gekostet hat, sind diese Kosten bis im Jahr 2009 kontinuierlich auf CHF 200 gesunken. In den letzten 15 Jahren sind die Kosten weiter gesunken, aber nur noch marginal, so dass die Kosten pro Benutzer und Monat aktuell bei CHF 166 liegen.

In den Workplace-Kosten sind die folgenden Gebiete enthalten:

Workplace: Kosten pro Benutzer im Monat

 

Die Supportkosten bestehend aus Service Desk und Onsite Support machen nur gerade 20% der gesamten Workplacekosten aus (total CHF 32 pro Benutzer im Monat). Weitere 18% resp. CHF 30 machen die Endgeräte wie Desktops, Notebooks, Monitore und Drucker als teuerstes Gebiet aus.

Das drittteuerste Gebiet ist mit CHF 27 die Workplace-Server. Hier sind einerseits die Fileserver enthalten (sofern noch vorhanden), aber auch die Infrastruktur-Server wie DNS, DHCP usw. Ebenfalls zu diesem Gebiet zählen die Citrix-Server (falls vorhanden). Nicht enthalten sind Applikations-Server.

Die LAN-Kosten machen mit nur gerade 8% nur einen kleinen Teil der Workplace-Kosten aus. Bewusst nicht enthalten in diesen Kosten sind die WAN-Verbindungen oder auch das LAN in den Rechenzentren.

Waren bis noch vor wenigen Jahren im Gebiet «Telefonie & Collaboration» die Festnetz-Telefoniekosten das dominierende Element, werden diese immer weniger relevant und durch die Collaboration-Lösungen (meist Teams) ergänzt oder mit der Zeit wohl auch ganz abgelöst.

Mit CHF 9 ist E-Mail das günstigste Gebiet. Hier geht die Entwicklung immer mehr von eigenen Exchange-Servern hin zu Office 365 (M365). Analog ist davon auszugehen, dass die Fileserver (siehe oben) mit der Zeit immer mehr durch SharePoint / OneDrive abgelöst werden.

Last but not least macht das Gebiet «Client Software Management» mit CHFF 29 den zweitteuersten Kostenblock aus. Die Kosten werden einerseits für die Aufwände der Software-Paketierung und -Verteilung, aber vor allem durch die Office-Lizenzen (M365) bestimmt. Konnten früher noch Office-Lizenzen gekauft und über mehrere Jahre genutzt (und abgeschrieben) werden, steigen diese Kosten mit M365 tendenziell wieder an und es ist davon auszugehen, dass wir hier in den kommenden Jahren noch einen weiteren Kostenanstieg sehen werden.

 

Fazit: Konnten die Workplace-Kosten in den vergangenen Jahren laufend gesenkt werden, dürfte das Kostenminimum wohl erreicht sein und es ist eher davon auszugehen, dass die Kosten wegen M365 wieder leicht steigen werden.


Eine hohe Rücklaufquote bedeutet nicht automatisch eine hohe Anwenderzufriedenheit

Korrelation zwischen Rücklaufquote und Anwenderzufriedenheit

In vielen Projekten zur Erhebung der Benutzerzufriedenheit kommt die Frage auf, ob es nicht wichtig sei, eine möglichst hohe Beteiligung (Rücklaufquote) zu erzielen, um ein gutes Resultat zu erreichen. Wir haben deshalb in der untenstehenden Grafik die Zufriedenheit der Rücklaufquote gegenübergestellt:

Rücklaufquote versus Benutzerzufriedenheit

 

Der rote Punkt entspricht dem Datenbank-Durchschnitt mit einer Benutzerzufriedenheit von 4.61 (Schulnote) bei einer Rücklaufquote von 48%.

Die in der obigen Grafik dargestellte Trendlinie zeigt eine gewisse Korrelation zwischen der Rücklaufquote und der Benutzerzufriedenheit auf. Allerdings beträgt die Korrelation nur gerade 0.26 und wird damit als nicht sehr relevant eingestuft. Dies bedeutet, dass die beiden Werte eine gewisse Abhängigkeit aufweisen, diese aber nicht sehr gross ist.

So weist die IT mit der höchsten Zufriedenheit von 5.17 eine leicht unterdurchschnittliche Rücklaufquote auf und zwei IT-Abteilungen mit einer Rücklaufquote von rund 60% erreichen ein vergleichsweise tiefes Resultat von knapp über 4.

Ebenfalls ersichtlich in der obigen Grafik ist das enorme Spektrum der Rücklaufquoten: Die tiefste Quote liegt bei rund 20% und die höchste erreicht über 80%. Die Rücklaufquote hängt von verschiedenen Faktoren ab: Unter anderem von der Firmenkultur, der Qualität der Mailadressen (ungültige Mailadressen oder solche mit einem vollen Postfach senken die Rücklaufquote), der kommunizierten Massnahmen aus der letzten Umfrage, von Nachfassmails sowie der Qualität und dem Absender des Ankündigungsmails für die Umfrage.

Aber auch die Zufriedenheit schwankt stark: Von ungenügenden 3.68 bis zu exzellenten 5.17. Häufig (aber nicht immer) wird bei einer wiederholten Durchführung der Umfrage eine Steigerung der Zufriedenheit bemerkt.

Fazit: Es fällt auf, dass die Unternehmen mit einer hohen IT-Zufriedenheit in der Regel auch eine hohe Rücklaufquote erreichen. Die Korrelation ist jedoch verhältnismässig gering und eine hohe Rücklaufquote bedeutet noch lange keine hohe Zufriedenheit mit den IT-Leistungen.


Automatisierungen im Service Desk für eine bessere Unterstützung der Geschäftsanwendungen

Optimierungsmöglichkeiten im Service Desk

Aus fast 100 gebenchmarkten Service Desks mit insgesamt über 350 000 Benutzern entsteht das folgende durchschnittliche Call Pattern (Verteilung der Anfragen auf die verschiedenen Themen):

Call Pattern im Service Desk

 

Selbstverständlich weichen die verschiedenen Firmen resp. Service Desks teilweise stark vom obigen Call Patter ab. Nichtsdestotrotz wollen wir die verschiedenen Kategorien etwas näher betrachten:

Basis-Störungen: Mit 20% sind die Frage und Probleme zu Office, Mail usw. die grösste Kategorie. Viele der Fragen können ohne oder mit nur wenig firmenspezifischem Wissen beantwortet werden und die Fragen könnten teilweise auch mit Google oder ChatGPT beantwortet werden.

Geschäftsanwendungen: An zweiter Stelle kommen mit 15% die Geschäftsanwendungen. Im Gegensatz zu den Basis-Störungen ist hier meistens viel Firmenwissen resp. Wissen zu den entsprechenden Applikationen gefragt. Häufig sind diese Fragen auch wesentlich aufwändiger zu lösen und bedingen ein entsprechendes Know-how im Service Desk.

Berechtigungen: Gleich nach den 14% Diverses folgen mit 12% die Berechtigungsthemen. Hier liesse sich vieles automatisieren, so dass diese Anfragen stark reduziert werden könnten. In der Regel sind solche Anfragen jedoch schnell beantwortet und eine Automatisierung entlastet das Service Desk weniger stark als angenommen werden könnte.

Bestellungen: Bestellungen werden in der Regel über einen Webshop abgewickelt und sind häufig entsprechend automatisiert. Wo noch kein Webshop zum Einsatz kommt, verfügt dieses Thema noch über entsprechendes Potenzial.

Passwort zurücksetzen: Auch hier besteht ein entsprechend hohes Automatisierungspotenzial. Noch ausgeprägter wie bei den Berechtigungen, sind Passwortrücksetzungen in der Regel aber entsprechend schnell erledigt und belasten das Service Desk weniger stark als allgemein angenommen wird.

Hardware-Störungen: In 8% aller Anfragen liegen Probleme mit der Hardware vor, die nur teilweise durch das Service Desk gelöst werden können. Häufig ist ein Vorort-Einsatz nötig und das Service Desk bildet nur die Schnittstelle zum Onsite Support.

Telefonie: 7% aller Anfragen betreffen die Telefonie. Dabei ist sowohl klassische VOIP-Telefonie als auch Telefonie über Kollaborations-Tools wie Teams usw. gemeint.

Smartphones / Tablets: Die Kategorie mit den wenigsten Anfragen (4%) betrifft die Smartphones und Tablets. Hier ist das Optimierungspotenzial auch dementsprechend gering.

 

Fazit: Die Kategorien Berechtigungen, Bestellungen und Passwort zurücksetzen können von der Natur her automatisiert werden. Zusammen macht dies 32% und damit rund ein Drittel aller Anfragen aus. Allerdings sind diese Kategorien in der Regel auch mit wenig Aufwand beantwortet resp. gelöst und damit fällt das Optimierungspotenzial geringer aus als auf den ersten Blick vermutet werden könnte.

Auf der anderen Seite des Spektrums stehen die Fragen zu den Geschäftsanwendungen. Diese machen im Schnitt nur 15% aller Anfragen aus, benötigen aber hohes Know-how und überdurchschnittlich viel Zeit zur Beantwortung resp. Lösung. Hier muss die Optimierung dahin gehen, dass das Service Desk möglichst viele dieser Anfragen selbst lösen kann, um die nachgelagerten Support- und Entwicklungsteams zu entlasten. Die Lösung im Service Desk kostet ein Bruchteil, als wenn das Problem im 2nd Level Support gelöst werden muss.

Am besten wird die Zeit, die durch Optimierungen frei wird, zur Behandlung von Geschäftsanwendungen eingesetzt. So profitieren alle davon: Die Anwender erhalten eine höhere Lösungsrate und damit eine schnellere Antwort, der Job der Service Desk Agenten wird anspruchsvoller und damit interessanter und die Applikationsteams werden von immer wiederkehrenden Anfragen entlastet.


Wir hoch muss die Rücklaufquote sein bei Zufriedenheitserhebungen?

Schon geringe Rücklaufquoten ergeben statistisch belastbare Resultate

Viele Unternehmen denken, dass bei der Erhebung der Zufriedenheit mit den IT-Leistungen eine Rücklaufquote von möglichst über 50% nötig sei. Um zu zeigen, dass dies nicht so ist, haben wir bei einem grossen Kunden die Entwicklung der Bewertung analysiert:

Entwicklung der Bewertung über die Zeit resp. die eingegangenen Antworten

 

Für die Interpretation der obigen Ergebnisse ist es relevant zu wissen, dass nicht nur einige Hundert, sondern mehrere Tausend Anwenderinnen und Anwender befragt wurden. Nach knapp 3% aller eingegangenen Antworten stand das Resultat bereits mit einer verhältnismässig hohen Genauigkeit fest (4.84 resp. 4.85 versus dem Endresultat von 4.88). Am vierten Tag der Befragung war eine Rücklaufquote von 11% erreicht. Ab da schwankte das Resultat nur noch um +/- 0.02 Punkte. Veränderungen von 0.1 Punkten oder mehr, werden dabei von uns als signifikant eingeschätzt.

Die durchschnittliche Rücklaufquote all unserer Umfragen liegt bei 46%. Obwohl in der obigen Umfrage eine Rücklaufquote von nur gerade 34% erreicht wurde, ist die Anzahl der eingegangenen Antworten mehr als ausreichend und eine weitere Steigerung der Rücklaufquote hätte das Resultat in keiner Weise mehr verändert.

Häufig unterteilen wir die Resultate jedoch in sogenannte Erhebungskreise: Z.B. Abteilungen oder Berufsgruppen oder Personen, die mit einem Desktop oder einem Notebook arbeiten. Bei sehr kleinen Abteilungen oder Berufsgruppen kann die Rücklaufquote hingegen eine wichtige Rolle spielen, da hier je nachdem nur noch wenige Antworten eintreffen, die den entsprechenden Erhebungskreis betreffen. Die Erfahrung zeigt, dass bei weniger als 30 Antworten, die Aussagen zu stark von Einzelmeinungen beeinflusst werden und lieber 50 – 100 Antworten pro Erhebungskreis vorhanden sind.

In der obigen Auswertung steigert sich das Resultat über die Zeit deutlich von rund 4.72 auf den Endwert von 4.88. Häufig meinen unsere Kunden, dass zuerst die kritischen Personen antworten und erst danach die positiver gestimmten Mitarbeitenden. Dies scheint für die obige Grafik zutreffen. Je nach Kunde und Gebiet sehen wir jedoch auch das gegenteilige Bild, dass die Note zuerst höher ausfällt und dann auf den Endwert absinkt.

Damit sind allfällige Thesen, dass zuerst die negativ oder positiv eingestellten Mitarbeitenden antworten, hinfällig. Und auch wenn sie noch zutreffen würden, würde dies kaum verwertbare Hinweise geben. Man kann ja die Umfrage nicht einfach nach ein paar Antworten abbrechen, solange einem das Resultat noch gefällt…


Die Effizienz wird beim Service Desk am schlechtesten beurteilt, hat aber die grösste Auswirkung

Die Effizienz ist auch im Service Desk am wichtigsten

Im Service Desk wird die Freundlichkeit mit Abstand am besten beurteilt. Danach folgen die Erreichbarkeit und die Fachkompetenz:

Zufriedenheit pro Gebiet im Service Desk

 

Die Störungsaufnahme und vor allem die Effizienz werden hingegen schlechter als die Gesamtbeurteilung des Service Desk bewertet.

 

Nebst der Befragung der Gesamtzufriedenheit mit den Leistungen des Service Desks («Wie beurteilen Sie insgesamt die vom Servicedesk erbrachten Leistungen?») befragen wir üblicherweise ebenfalls die folgenden Teilgebiete des Service Desks:

  •   Freundlichkeit: Wie beurteilen Sie den Service Desk bezüglich der Freundlichkeit?
  •   Erreichbarkeit: Wie beurteilen Sie den Service Desk bezüglich der Erreichbarkeit?
  •   Fachkompetenz: Wie beurteilen Sie den Service Desk bezüglich der Fachkompetenz?
  •   Qualität der Störungsaufnahme: Wie beurteilen Sie den Service Desk bezüglich der Qualität der Störungsaufnahme (wird das Problem verstanden, bekomme ich Statusmeldungen, etc.)?
  •   Effizienz der Lösung: Wie beurteilen Sie den Service Desk bezüglich der Effizienz (Reaktionszeit, Lösungsgeschwindigkeit, etc.)?

Die Beurteilung erfolgt in Worten und wird in Schulnoten umgerechnet (sehr schlecht = 1 | schlecht = 2 | ungenügend = 3 | genügend = 4 | gut = 5 | sehr gut = 6)

 

Wenn wir die Korrelation der obigen Teilgebiete mit der Gesamtzufriedenheit mit dem Service Desk betrachten, ergibt sich das folgende Bild:

Korrelation der Gebiete mit der Gesamtzufriedenheit im Service Desk

 

Interessanterweise weisen genau die am schlechtesten bewerteten Gebiete Effizienz und Störungsaufnahme die höchste Korrelation mit der Gesamtzufriedenheit auf. Und die am besten bewerteten Gebiete Freundlichkeit und Erreichbarkeit weisen die geringste Korrelation auf.

Wenn wir die Zufriedenheit der Korrelation gegenüberstellen, dann ergibt sich folgendes Bild:

Zufriedenheit versus Korrelation der Gebiete im Service Desk

 

Die Freundlichkeit erreicht zwar mit Abstand die beste Beurteilung, weist allerdings auch die geringste Korrelation mit der Gesamtzufriedenheit im Service Desk auf. Damit lohnt es sich nicht, noch mehr in die Freundlichkeit der Service Desk Agenten zu investieren.

Ähnlich verhält es sich mit der Erreichbarkeit, wenn auch etwas weniger ausgeprägt wie bei der Freundlichkeit.

Auf der anderen Seite wird die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) am schlechtesten beurteilt, weist dafür aber die grösste Korrelation auf. D.h. hier lohnt es sich am Meisten, zu investieren.

Die Fachkompetenz sowie die Störungsaufnahme weisen praktisch die gleiche Korrelation mit der Gesamtzufriedenheit auf. Da die Störungsaufnahme jedoch schlechter beurteilt wird wie die Fachkompetenz, lohnt es sich mehr, in die Störungsaufnahme zu investieren als die Fachkompetenz noch weiter zu steigern.

 

Fazit

Eine weitere Steigerung der Freundlichkeit und Erreichbarkeit wirkt sich nur wenig auf der Steigerung der Gesamtzufriedenheit mit dem Service Desk aus.

Viel mehr lohnt es sich, die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) sowie die Qualität der Störungsaufnahme (wird das Problem verstanden, bekomme ich Statusmeldungen, etc.) zu optimieren, da diese Parameter einen deutlich grösseren Einfluss auf die Gesamtzufriedenheit haben.

Dies kann wie folgt zusammen gefasst werden: Die Anwender wollen eine schnelle und effiziente Lösung ihrer gemeldeten Probleme durch kompetente Service Desk Mitarbeitende.


Die Effizienz ist im Vor-Ort-Support am wichtigsten

Die Effizienz wird beim Vor-Ort-Support am schlechtesten beurteilt, hat aber die grösste Auswirkung

Im Vor-Ort-Support werden die Erreichbarkeit sowie die Freundlichkeit mit Abstand am besten beurteilt:

Zufriedenheit pro Gebiet im Vor-Ort-Support

 

Nebst der Befragung der Gesamtzufriedenheit mit den Leistungen des Onsite Supports («Wie beurteilen Sie insgesamt die vom Vor-Ort-Support erbrachten Leistungen?») befragen wir üblicherweise ebenfalls die folgenden Teilgebiete des Onsite Supports:

  • Erreichbarkeit: Wie beurteilen Sie den Vor-Ort-Support bezüglich der Erreichbarkeit?
  • Freundlichkeit: Wie beurteilen Sie den Vor-Ort-Support bezüglich der Freundlichkeit?
  • Fachkompetenz: Wie beurteilen Sie den Vor-Ort-Support bezüglich der Fachkompetenz?
  • Effizienz der Lösung: Wie beurteilen Sie den Vor-Ort-Support bezüglich der Effizienz (Reaktionszeit, Lösungsgeschwindigkeit, ...)?

Die Beurteilung erfolgt in Worten und wird in Schulnoten umgerechnet (sehr schlecht = 1 | schlecht = 2 | ungenügend = 3 | genügend = 4 | gut = 5 | sehr gut = 6)

 

Wenn wir die Korrelation der obigen Teilgebiete mit der Gesamtzufriedenheit mit dem Vor-Ort-Support betrachten, ergibt sich das folgende Bild:

Korrelation der Gebiete mit der Gesamtzufriedenheit im Vor-Ort-Support

 

Interessanterweise weisen genau die am schlechtesten bewerteten Gebiete (Effizienz und Fachkompetenz) die höchste Korrelation mit der Gesamtzufriedenheit auf. Und die am besten bewerteten Gebiete (Freundlichkeit und Erreichbarkeit) weisen die geringste Korrelation auf.

Wenn wir die Zufriedenheit der Korrelation gegenüberstellen, dann ergibt sich folgendes Bild:

Zufriedenheit versus Korrelation der Gebiete im Vor-Ort-Support

 

Die Erreichbarkeit erreicht zwar die beste Beurteilung, weist allerdings auch die geringste Korrelation mit der Gesamtzufriedenheit im Onsite Support auf.

Auf der anderen Seite wird die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) am schlechtesten beurteilt, weist dafür aber die grösste Korrelation auf.

Die Fachkompetenz sowie die Freundlichkeit weisen praktisch die gleiche Korrelation mit der Gesamtzufriedenheit auf. Da die Fachkompetenz jedoch schlechter beurteilt wird wie die Freundlichkeit, lohnt es sich mehr, in die Fachkompetenz zu investieren als die Freundlichkeit noch weiter zu steigern.

 

Fazit

Am meisten lohnt es sich, die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) und die Fachkompetenz zu verbessern, um die Zufriedenheit im Vor-Ort-Support zu steigern.


Am zufriedensten sind die User mit dem Vor-Ort-Support

Von allen Gebieten wird der Vor-Ort-Support am besten beurteilt

Standardmässig befragen wir bei unserer Erhebung der Anwenderzufriedenheit die folgenden Gebiete:

Vor-Ort-Support: Support vor Ort, bei dem ein Supporter am Arbeitsplatz der Anwenderinnen und Anwender vorbeikommt, um das Problem zu lösen (in der Regel Installation/Deinstallation/Austausch von Endgeräten).

IT Service Desk: Dem IT-Service Desk können Probleme und Störungen per Telefon, Mail, Intranet, Chat usw. gemeldet werden. Das Service Desk löst soviele Anfragen wie möglich und leitet die übrigen Probleme an nachgelagerte Supportstellen weiter.

Leistungsfähigkeit / Zuverlässigkeit: Performance (Geschwindigkeit) und Verfügbarkeit der IT-Systeme.

Kommunikation: Kommunikationsleistung der IT mit Fragen wie «Wie erfahren Sie von Neuerungen und Änderungen an den Informatik-Systemen?» oder «Wie beurteilen Sie die Häufigkeit und Umfang der Informationen aus der Informatik?».

Schulung: Beurteilung des Schulungsangebotes (nicht der Schulungen selbst): «Wie gut deckt das Angebot an internen Computerschulungen grundsätzlich Ihre Bedürfnisse ab?»

Über alle durchgeführten Umfragen ergeben sich die folgenden Beurteilungen pro Gebiet:

Durchschnittliche Anwenderzufriedenheit pro Gebiet

 

Bei den meisten Befragungen entspricht die Reihenfolge bezüglich der Zufriedenheit dem obigen Bild. Der Grund dürfte darin liegen, dass die Zufriedenheit umso grösser ist, je persönlicher der Kontakt ausfällt. Die Leute im Vor-Ort-Support kennt man häufig persönlich und tauscht sich mit diesen hin und wieder aus. Die Personen im Service Desk kennt man teilweise mit Namen (wenn man sich häufig an den Service Desk wendet), aber nicht persönlich vom Sehen.

Zudem helfen der Vor-Ort-Support sowie der Service Desk bei konkreten Problemen, was in der Regel positiv wahrgenommen wird. Dies dürfte ein weiterer Grund sein, wieso die Gebiete ohne persönlichen Kontakt wie Leistungsfähigkeit/Zuverlässigkeit, Kommunikation und Schulung tendenziell schlechter beurteilt werden.


Fazit

Der persönliche Kontakt zu den Anwenderinnen und Anwendern lohnt sich und wird mit einer höheren Zufriedenheit belohnt. Gebiete mit wenig oder keinem persönlichem Kontakt werden in der Regel schlechter beurteilt und es braucht hier umso intensivere Anstrengungen, um eine hohe Zufriedenheit zu erreichen. Dass dies aber auch in diesen Gebieten möglich ist, zeigt das Beispiel einer Firma, bei der das Schulungsangebot mit 4.94 bewertet wird und damit das Niveau der durchschnittlichen Beurteilung des Vor-Ort-Supports (4.95) erreicht.


Ist Outsourcing besser als Insourcing?

Bei einem Out- oder In-Sourcing sinkt die Anwenderzufriedenheit zuerst einmal

Vor längerer Zeit hat uns eine Firma mit dem Outsourcing eines Teils ihrer IT beauftragt. Dazu hat auch der Service Desk gehört, der eine sehr gute Leistung erbracht hat. Wegen der hohen Zufriedenheit mit dem Service Desk haben wir die Anwenderzufriedenheit in das SLA mit dem Provider als bonusrelevantes Ziel aufgenommen:

Anwenderzufriedenheit mit dem Service Desk

 

Erwartungsgemäss ist die sehr hohe Zufriedenheit gleich nach dem Outsourcing gesunken: Die Prozesse waren neu und noch nicht eingespielt und alle Erfahrungen, die das bisherige Service Desk über Jahr aufgebaut hatte, musste der Provider zuerst auch wieder machen. Im zweiten Jahr des Outsourcings konnte der Provider die Zufriedenheit leicht und im dritten Jahr deutlich steigern. Im vierten Jahr fand nochmals eine Steigerung auf das Niveau des Datenbankdurchschnitts von axeba statt.

Die kommenden Jahre stagnierte die Zufriedenheit auf der Höhe des Datenbankdurchschnitts, erreichte den guten Wert vor dem Outsourcing jedoch nicht mehr.

Im Jahr 2019 hat die Firma beschlossen, das Outsourcing zu beenden und die Leistungen des Service Desks wieder selbst zu erbringen. Daraufhin ist die Zufriedenheit erwartungsgemäss gesunken, da das neu aufgebaute interne Service Desk sich zuerst wieder organisieren und optimieren musste. Im Jahr darauf stieg die Beurteilung jedoch auf den Wert des Datenbankdurchschnitts und ein weiteres Jahr später wurde die hohe Zufriedenheit vor dem Outsourcing nicht nur erreicht, sondern deutlich übertroffen.

 

Fazit:

  • Jede signifikante Veränderung wie ein Out- oder Insourcing wirkt sich im ersten Moment negativ auf die Anwenderzufriedenheit aus
  • Auch wenn ein Outsourcing nicht zu schlechteren Leistungen führen muss (wie in diesem Beispiel), so ist es doch sehr anspruchsvoll, gute Leistungen durch ein Outsourcing noch zu übertreffen
  • Waren die Leistungen jedoch vor dem Outsourcing schlecht, so hat der Outsourcer gute Chancen, die Prozesse zu optimieren und damit die Zufriedenheit zu steigern.
  • Der Zeitraum für signifikante Verbesserungen wird nicht in Wochen oder Monaten, sondern in Jahren gemessen.

An welche Stellen wenden sich die Anwenderinnen und Anwender bei Fragen und Problemen?

53% aller Anwenderinnen und Anwender lösen ihre Fragen und Probleme in ihrem Umfeld und werden damit nie zu einem Supportfall

Eine unsere Standardfragen bei der Erhebung der Anwenderzufriedenheit ist «Welches sind Ihre Anlaufstellen bei Fragen und Problemen mit …». Dabei wird bei den Antwortmöglichkeiten unterschieden zwischen Fachanwendungen und dem PC-Arbeitsplatz (Informatikmittel inkl. Standard Office Software).

Die Auswahlmöglichkeiten gliedern sich in die folgenden Gruppen:

Lösungen ohne Supportfall: Dazu zählt die Lösung durch Kolleginnen und Kollegen, durch Vorgesetzte oder durch Poweruser (Superuser). Insgesamt geben 53% der befragten Personen an, dass sie sich für die Lösung von IT-Probleme an ihre Kollegen/Vorgesetzte/Poweruser und nicht an die IT wenden. Das heisst, diese Fragen und Probleme werden gar nie zu einem Supportfall.

Regulärer Supportprozess: 42% aller Anwenderinnen und Anwender nutzen den regulären Supportprozess, indem sie sich an den Service- resp. Helpdesk oder direkt an eine oder einen IT-Verantwortlichen wenden. Für Themen rund um den PC-Arbeitsplatz wenden sich die Hilfesuchenden dabei deutlich mehr an den Service- resp. Helpdesk als bei Fachanwendungen. Dies ist einfach erklärbar, da das Service Desk häufig weniger kompetent ist im Bereich der Fachwendungen als beim PC-Arbeitsplatz.

Unüblich: Insgesamt 5% wenden sich an andere Stellen resp. direkt an externe Lieferanten. Dies ist bei Fachanwendungen stärker ausgeprägt als beim PC-Arbeitsplatz:

Anlaufstellen bezüglich Fragen und Probleme mit den Fachanwendungen und dem PC-Arbeitsplatz

 Fazit:

  • Nur knapp die Hälfte aller befragten Personen wenden sich an die IT. Die andere Hälfte kontaktieren ihre Kolleginnen und Kollegen, ihre Vorgesetzte oder die zuständigen Poweruser.
  • Nicht alle Anwenderinnen und Anwender, die sich an die IT wenden, kontaktieren den Service Desk. Ein signifikanter Anteil kontaktiert direkt Personen in der IT oder wendet sich direkt an externe Lieferanten (bei Fachanwendungen).
  • Es wenden sich mehr Personen bei Problemen und Fragen mit dem PC-Arbeitsplatz an den Service Desk als bei Fachanwendungen.

Lösen Chatbots bald die Service Desk Agenten ab?

Gewünschte und effektiv genutzte Eingangskanäle beim Service Desk

Chatbots sind in aller Munde und kommen immer mehr zum Einsatz. Das eine oder andere Service Desk hat sich auch bereits überlegt, Chatbots einzusetzen. In der Praxis treffen wir Chatbots jedoch bis anhin kaum an bei internen Service Desks.

Bei der Erhebung der Anwenderzufriedenheit fragen wir in der Regel, welches der bevorzugte Kanal für die Kontaktaufnahme mit dem Service Desk ist:

Bevorzugter Kanal für die Kontaktaufnahme mit dem IT-Service Desk

 

82% aller befragt Personen wenden sich nach wie vor am liebsten per Telefon an das Service Desk. An zweiter Stelle kommt weit abgeschlagen mit 10% aller Nennungen E-Mail und mit 6% folgt das IT Service Portal. Eine Kontaktaufnahme per Chatbot wünscht (so gut wie) niemand und eine kleine Minderheit von 2% geht am liebsten persönlich beim Service Desk vorbei.

Chatbots scheinen eine Idee der Anbieter zu sein und nicht der Kunden, die sich an das Service Desk wenden. Allerdings muss bei dieser Aussage berücksichtigt werden, dass kaum ein internes Service Desk eine Kontaktmöglichkeit per Chatbot anbietet und damit dieser Kanal auch kaum bekannt ist.

In den Benchmarks messen wir jeweils, wie viele Anfragen über welchen Kanal an das Service Desk gerichtet werden:


Anteil der Anfragen an das Service Desk pro Kanal

 

Interessanterweise wünschen zwar 82% der befragten Personen, das Service Desk telefonisch zu kontaktieren, in der Praxis gelangen jedoch nur 43% aller Anfragen per Telefon an das Service Desk. Je rund ein Viertel aller Anfragen gelangen über das Intranet (Service Portal) und E-Mail an das Service Desk. Dies liegt teilweise daran, dass einige Service Desks gar keinen Telefon-Kanal anbieten oder diesen nur rudimentär betreiben und die Anfragen elektronisch und nicht telefonisch forcieren wollen.

Auf die Frage, welches der bevorzugte Kanal für Rückantworten des IT-Service Desks ist, bevorzugen etwas weniger, aber immer noch viele Personen das Telefon:

Bevorzugter Kanal für Rückantworten des Service Desks

Das Telefon ist auch hier der beliebteste Kanal und ein persönliches Gespräch wird in zwei Dritteln der Fälle bevorzugt. Dahinter folgt E-Mail mit 25% aller Nennungen.

Fazit: Chatbots sind bis jetzt bei den (internen) IT-Service Desks kaum verbreitet und von den Anwenderinnen und Anwendern auch nicht gewünscht. Obwohl 82% aller befragten Personen angeben, das Service Desk am liebsten telefonisch zu kontaktieren, gehen in der Praxis nur 43% aller Anfragen auch per Telefon ein. Dies liegt zu einem Teil auch daran, dass einige Service Desks gar keine Möglichkeit bieten, um telefonisch mit ihnen in Kontakt zu treten. Dies ist in unseren Augen eine gewagte Strategie, da die Entscheidung den Anwenderinnen und Anwendern überlassen werden sollte, wie sie mit dem Service Desk interagieren wollen.

 


Was nichts kostet, ist nichts wert

Korrelation der Anwenderzufriedenheit mit den Workplacekosten

«Was nichts kostet, ist nichts wert». Dieses Zitat stammt von Albert Einstein und ist in vielen Köpfen. Ein gutes Auto kostet Geld. Und gutes Essen in der Regel ebenfalls. Gute Hotels sind teuer und schöne Möbel ebenfalls.

Aber ist das in der IT auch so? Ist eine gute IT teurer als eine schlechte? Wenn wir mit «gut» die Anwenderzufriedenheit meinen, dann können wir dies mit Daten belegen. Wir haben bei knapp 100 Firmen die Kosten für den Workplace in Benchmarks erhoben und bei 45 Firmen die Anwenderzufriedenheit gemessen. Bei einigen Firmen durften wir sowohl den Workplace benchmarken als auch die Anwenderzufriedenheit messen. Diese (zugegebenermassen wenigen) Daten schauen wir in diesem KPI of the month genauer an.


Um es vorwegzunehmen: Wir finden keine Korrelation zwischen der Anwenderzufriedenheit und den erhobenen Workplacekosten bei den Firmen und Verwaltungen, bei denen wir beides erheben durften:

Anwenderzufriedenheit versus Workplacekosten pro Benutzer

 

Die auf der y-Achse aufgetragene Anwenderzufriedenheit hat keinen Zusammenhang mit den auf der x-Achse aufgetragenen Workplacekosten pro Benutzer. Das heisst, dass Firmen mit hohen Workplacekosten nicht eine höhere Anwenderzufriedenheit aufweisen resp. dass ein günstiger Workplace nicht auf Kosten der Anwenderzufriedenheit geht.

Die Kosten lassen sich jedoch kaum beliebig reduzieren, ohne dass dies Auswirkungen auf die Anwenderzufriedenheit hat. Werden die Kosten so weit gesenkt, dass sich die Ausfälle häufen und die Performance zusammenbricht, wird dies sehr wohl Auswirkungen auf die Zufriedenheit haben. Die untenstehende Grafik zeigt auf, was die Folgen sein dürften, falls die Kosten immer weiter gesenkt werden (linker Teil der Grafik):


Mutmassliche Entwicklung der Zufriedenheit, falls die Workplacekosten unter ein kritisches Mass hinaus reduziert werden (linker Teil der Grafik)

 

Werden die personellen Ressourcen so weit reduziert, dass man den Service Desk kaum noch erreicht und der Onsite Support Wochen benötigt, um Störungen zu beheben oder neue Geräte auszuliefern, wird auch die Anwenderzufriedenheit entsprechend sinken.

Und ab einem gewissen Punkt wird nicht nur die Zufriedenheit sinken, sondern die Anwender werden sich selbst helfen, indem sie selbständig PC und Software beschaffen oder externe Firmen beauftragen und damit eine Schatten-IT aufbauen. Die zentrale IT wird so zwar günstiger, aber die gesamten IT-Kosten steigen an, da die Kosten der Schatten-IT laufend zunehmen werden.

Fazit: Genügend finanzielle Mittel sind zwar Voraussetzung, aber nicht hinreichend für gute IT-Leistungen. Nur weil etwas teuer ist, ist es nicht automatisch gut. Und nur weil IT-Leistungen gut bewertet werden, müssen sie noch lange nicht teuer sein!

Für eine hohe Benutzerzufriedenheit sind einfache und schnelle Prozesse sowie vor allem die Leute mit ihrer Haltung verantwortlich. Freundliche und lösungsorientierte Mitarbeitende sind nicht teurer als unfreundliche und problemorientierte IT-Spezialisten.


Gesunkene Kosten im Service Desk

Entwicklung der Kosten im Service Desk

Durch die Steigerung von rund 4 000 Anfragen auf gut 7 000 Anfragen pro Jahr, die eine Agentin oder ein Agent im Service Desk behandelt, sinken die Kosten pro Anfrage entsprechend:

Durchschnittliche Kosten pro Anfrage in CHF im Service Desk

 

Dabei sinken die Kosten nicht ganz proportional zur Steigerung der Anfragen pro Service Desk Agent resp. Agentin, da in den vergangenen 20 Jahren die Löhne durch die Teuerung entsprechend gestiegen sind.

Die Kosten pro Benutzer sinken ebenfalls, allerdings weniger stark:

Durchschnittliche Kosten pro Benutzer im Monat im Service Desk

 

Die Anzahl Benutzer pro Service Desk Agent resp. Agentin konnte zwar von rund 500 auf über 800 um 60% gesteigert werden. Im gleichen Zeitraum konnten die durchschnittlichen Kosten pro Benutzer im Monat jedoch nur um rund 20% gesenkt werden. Die Diskrepanz lässt sich nur durch gestiegene Personalkosten erklären. Einerseits dürfte dies auf die Teuerung in den letzten 20 Jahren zurückzuführen sein und andererseits wohl auch auf ein höheres Niveau der Service Desk Agentinnen und Agenten und den damit einhergehenden höheren Salären.

Wer die eigenen Kosten den obigen Werten gegenüber stellen will: Die Kosten im Service Desk bestehen vor allem aus Personalkosten (inkl. Sozialleistungen) der Service Desk Agentinnen und Agenten inkl. der Leitung des Service Desks. Ebenfalls sind die Abschreibungen und Betriebskosten einer allfälligen Telefonieanlage sowie ein Teil des ITSM-Tools (Ticket-System) in den obigen Kosten eingerechnet.


Gleich hohe Lösungsrate trotz gestiegener Effizienz im Service Desk

Entwicklung der Benchmark-Werte im Service Desk

Bei einer Steigerung von rund 4 000 Anfragen im Jahr 2002 auf gut 7 000 Anfragen, die eine Agentin oder ein Agent im Service Desk behandelt, ist anzunehmen, dass die Lösungsrate entsprechen einbricht.

Dass dies nicht geschehen ist, überrascht und spricht für eine echte Effizienzsteigerung im Service Desk:


Lösungsrate im Service Desk

 

Die Lösungsrate konnte – trotz steigender Auslastung im Service Desk – konstant gehalten, resp. sogar noch leicht gesteigert werden. Mit gut 60% können beinahe zwei Drittel aller Anfragen an den Service Desk direkt gelöst werden und nur gut ein Drittel der Anfragen muss an die nachgelagerten Supportstellen weitergegeben werden.

Eine (minimale) Steigerung der Lösungsrate bedingt in der Regel, dass auch die Gesprächsdauer entsprechend (minimal) ansteigt. Dies ist auch tatsächlich so geschehen:

Durchschnittliche Gesprächsdauer pro Anfrage im Service Desk

 

Die teilweise recht ausgeprägten Schwankungen kommen daher, dass in einigen Jahren jeweils sehr unterschiedliche Service Desks mit entsprechend unterschiedlichen Parametern gebenchmarkt wurde. Die gemittelte Entwicklung über die Zeit gleicht diesen Effekt aus.

Einen negativen Einfluss hat die Steigerung der Anfragen pro Mitarbeitende im Service Desk jedoch auf die verlorenen Calls und auf die Wartezeit, bis ein Anruf entgegengenommen wird.

Die Rate der verlorenen Calls ist nur marginal schlechter geworden:

Verlorene Calls im Service Desk

 

Die Wartezeit hat sich hingegen von sehr guten 15 Sekunden auf über 30 Sekunden verdoppelt:


Durchschnittliche Wartezeit im Service Desk

 

Zaubern kann leider auch der Service Desk nicht…


Stark gestiegene Effizienz im Service Desk

Entwicklung der Benchmark-Werte im Service Desk

Die durchschnittliche Anzahl der Service Stunden pro Woche hat sich in den letzten 20 Jahren von gut 50 Stunden auf über 60 Stunden entwickelt. In den Durchschnittswerten sind auch Service Desks mit einem 7x24 Stunden Service enthalten. Daher treten bei den Jahreswerten immer wieder Spitzen auf. Lässt man diese weg, liegt der Durchschnitt 2022 bei knapp 50 Servicestunden pro Woche.

Da jedes Jahr unterschiedliche Unternehmen gebenchmarkt werden, schwanken die Werte von Jahr zu Jahr entsprechend. Deshalb ist in den Grafiken jeweils die weiss gestrichelte Trendlinie eingezeichnet, welche die Schwankungen ausgleicht.


Durchschnittliche Servicestunden pro Woche im Service Desk

Nebst der Servicestunden ist auch die Anzahl der Anfragen pro Benutzer leicht gestiegen in den letzten 20 Jahren:



Durchschnittliche Anzahl Anfragen pro Benutzer im Jahr

 

Von knapp 10 Anfragen pro Benutzer im Jahr (Trendlinie links) ist das Anfragevolumen im Jahr 2022 auf gut 10 Anfragen pro Jahr gestiegen. Eine Anfrage kann dabei per Telefon, E-Mail, Serviceportal usw. gestellt werden.

Wie die nachfolgende Grafik zeigt, wurde das gestiegene Anfragevolumen nicht durch zusätzliche Agenten im Service Desk kompensiert:

Entwicklung der Anzahl Mitarbeitende für Entwicklung und Betrieb bei 20% Wartungs-&Betriebsaufwände / 5% Betriebsoptimierung

 

Hat eine Agentin oder ein Agent im Service Desk im Jahr 2002 noch rund 4 000 Anfragen pro Jahr behandelt, sind dies inzwischen rund 7 000 Anfragen pro Jahr. Beinahe eine Verdoppelung.

Da die Anzahl bearbeiteter Anfragen pro Service Desk Agent stark zunimmt, die Anzahl Anfragen pro Benutzer aber nur leicht steigt, steigt auch die Anzahl User pro Service Desk Agent. Die Anzahl User pro Agenten liegt aktuell bei 711 Usern:


Durchschnittliche Anzahl Benutzer pro Agent

 

Mit einer Steigerung von rund 500 Benutzern pro Service Desk Agent (linker Teil der Trendlinie) auf über 800 Benutzer pro Agent (rechter Teil der Trendlinie), konnte die Effizienz im Service Desk stark gesteigert werden. Insbesondere wenn man bedenkt, dass die erweiterten Servicezeiten sowie das höhere Anfragevolumen die Situation zusätzlich verschärfen.

Ob mit dieser anspruchsvollen Situation die Lösungsrate gehalten werden kann, sehen wir im nächsten KPI of the month.


Sinn und Unsinn von Kennzahlen (KPI)

Goodharts Gesetz

Im Magazin (DAS MAGAZIN) vom 18. Februar 2023 ist ein interessanter Artikel über KPI erschienen (Paywall), der das Goodharts Gesetz beschreibt. Dieses heisst «As soon as the government attempts to regulate any particular set of financial assets, these become unreliable as indicators of economic trends» und meint, dass eine Kennzahl aufhört eine gute Kennzahl zu sein, sobald sie zum alleinigen Ziel wird.

Goodharts bezieht dies auf die finanzielle Regulierung von Aktivposten durch eine Regierung und sagt, dass solche Indikatoren für ökonomische Trends unbrauchbar werden, sobald sie als Ziel vorgegeben werden, da Investoren versuchen werden, derart zu investieren, dass sie von den möglichen Effekten einer Regulation finanzieller Aktivposten profitieren (Wikipedia).

Im Artikel des Magazins wird dies illustriert mit der Kobraschlangenplage in Indien während der britischen Kolonialherrschaft. Um diese zu bekämpfen, hat die Regierung ein Kopfgeld für jede getötete Kobra ausgesetzt, was dazu geführt hat, dass geschäftstüchtige Leute damit begonnen haben, Kobras zu züchten und dann zu töten, um die Prämie zu erhalten. Damit wurde die Kennzahl unbrauchbar, da die Leute Kobras gezüchtet haben, anstatt die vorhandene Kobraschlangenplage zu bekämpfen.

In der IT ist dies nicht anders: Wenn nur ein KPI optimiert wird, kommt selten etwas Brauchbares heraus. Nehmen wir als Beispiel die Kosten des Service Desks, die optimiert (resp. minimiert) werden sollen. Wie baut man ein günstiges Service Desk? Ganz einfach: Mit möglichst wenigen und schlecht ausgebildeten (=günstigen) Leuten im Service Desk. Damit werden zwar tiefe Kosten erreicht, aber auch:

  • Eine geringe Lösungsrate und damit höhere Kosten in den nachgelagerten Supportstellen
  • Längere Wartezeiten für die Anwender

Daher betrachten wir in unseren Benchmarks die Kosten immer als Letztes. Als Erstes wird immer die Last auf den Service Desk betrachtet. Im Durchschnitt sind dies rund 10 Anfragen pro Benutzer im Jahr. Falls diese wesentlich höher sind, liegt das Problem nicht im Service Desk, sondern in einer instabilen IT-Infrastruktur.

Als nächstes betrachten wir die Lösungsrate. Diese beträgt im Schnitt 60%. Falls sie wesentlich höher liegt, benötigt der Service Desk mehr Agenten als andere Service Desks, entlastet dafür die nachgelagerten Supportstellen. Liegt die Lösungsrate deutlich unter 60% werden auch weniger Ressourcen im Service Desk benötigt.

Mit einem durchschnittlichen Anfragevolumen und einer durchschnittlichen Lösungsrate (bei «normalen» Servicezeiten) wird ein Service Desk Agent pro 1 000 Benutzer benötigt. Daraus resultiert eine Wartezeit am Telefon von rund 25 Sekunden und rund 10% verlorene Anrufe.

Mit diesen Parametern können die Kosten weitestgehend vorausgesagt werden und sind praktisch nur noch das Resultat der Auslegung des Service Desks.

Wie das Beispiel des Service Desks schön zeigt, sind praktisch immer mehrere KPI nötig, die in Balance stehen müssen. Wird nur ein einzelner KPI vorgegeben (und damit optimiert) resultiert meistens eine einseitige Optimierung, die selten das gewünschte Gesamtresultat ergibt.

Die Kobras existieren aber auch im Service Desk. Immer wenn in unseren Umfragen zur Erhebung der Anwenderzufriedenheit oder in Gesprächen mit Anwendern der Vorwurf aufkommt, dass das Service Desk Tickets schliesst, obwohl das Problem noch nicht gelöst ist, wissen wir, dass hier die ein KPI vorhanden ist, mit dem gemessen wird, wie lange die Tickets offen sein dürfen.


Der Betrieb nimmt den Projekten die Ressourcen weg

Abhängigkeiten zwischen Projekt- und Betriebskosten

Die IT verfügt immer über zu wenig Spezialistinnen und Spezialisten. Vor allem für die Realisierung von Projekten stehen permanent zu wenig Leute zur Verfügung und der Backlog wächst stetig.

Schauen wir uns die Situation und Abhängigkeiten zwischen den Projekten und der Wartung & Weiterentwicklung sowie den Betriebskosten näher an. Viele Leute meinen, dass nach dem Abschluss eines Projektes keine Kosten mehr anfallen. Dabei geht es dann erst richtig los:

Abhängigkeit der Kosten für Wartung & Weiterentwicklung sowie Betrieb von den Projektklosten

 

  • Ein Teil der internen und externen Mitarbeitenden, die das Projekt realisiert haben, entwickeln das System weiter resp. betreiben es.
  • Aus den Investitionen in Software-Lizenzen werden nun Abschreibungen und Kosten für die SW-Wartung.
  • Die Investitionen in Test-, Entwicklungs- und Produktionssysteme werden abgeschrieben und erscheinen in den Betriebskosten.


Damit entstehen auch nach Abschluss eines Projektes noch Kosten. Nur wie hoch fallen diese aus und wie können sie beeinflusst werden? Um dies näher zu betrachten, konzentrieren wir uns auf die personellen Aufwände und betrachten nur die Anzahl Personen in den Bereichen Projekte sowie Wartung & Weiterentwicklung und Betrieb. Dabei gehen wir davon aus, dass die Summe der IT-Mitarbeitenden konstant ist und nicht ansteigen kann.

 

Szenario 1: 20% Wartungs-&Betriebsaufwände

Wird davon ausgegangen, dass mit jedem Projekt, das realisiert wird, 20% der Projektaufwände (pro Jahr) für den Betrieb (Wartung & Weiterentwicklung) benötigt werden, so nimmt die Anzahl der Betriebs-Mitarbeitenden laufend zu.
Da die Gesamtzahl der IT-Mitarbeitenden vorgegeben ist, muss daher die Anzahl der Entwickler (Projektmitarbeitende) abnehmen:



Entwicklung der Anzahl Mitarbeitende für Entwicklung und Betrieb bei 20% Wartungs-&Betriebsaufwänden

 

Nach einigen Jahren existieren damit nur noch Betriebs-Mitarbeitende in der IT und alle Entwickler wurden abgebaut. Da dies in der Praxis ja so nicht vorkommt, führen wir im nächsten Szenario eine Optimierung des Betriebs ein, um der Realität näher zu kommen.

 

Szenario 2: 20% Wartungs-&Betriebsaufwände / 5% Betriebsoptimierung

In einer ersten Schätzung wird angenommen, dass sich der IT-Betrieb jedes Jahr um 5% optimiert, das heisst mit 5% weniger Mitarbeitenden auskommt. Diese Zahl ist mehr oder weniger willkürlich gewählt und mag auf den ersten Blick niedrig erscheinen. Kurzfristig kann sie durchaus auch wesentlich höher sein. Eine Kosteneinsparung von 5% über mehrere Jahre zu realisieren ist jedoch eine recht anspruchsvolle Aufgabe. Im Szenario 3 wird dann die Optimierung probehalber auf 10% gesetzt, um zu prüfen, wie sich das Bild mit höheren Einsparungen verändert.

Ebenfalls wird angenommen, dass pro Jahr 20% der Mitarbeitende, die neue Lösungen realisieren, für deren Überwachung, Betrieb, Fehlerkorrektur und Anpassungen benötigt werden. Auch dies ist eine erste Annahme, die in den folgenden Beispielen ebenfalls variiert wird.

Durch die verhältnismässig große Anzahl an Entwicklern werden viele Applikationen entwickelt. Dadurch entstehen jedoch entsprechende Aufwendungen für den Betrieb dieser Applikationen, so dass der Betrieb laufend ausgebaut werden muss. Da die Gesamtzahl der IT-Mitarbeitende konstant gehalten werden soll, nehmen die Entwickler laufend ab, bis sich das Verhältnis zwischen IT-Mitarbeitenden im Betrieb und in der Entwicklung bei 80:20 einpendelt:


Entwicklung der Anzahl Mitarbeitende für Entwicklung und Betrieb bei 20% Wartungs-&Betriebsaufwände / 5% Betriebsoptimierung

 

Szenario 3: 10% Wartungs-&Betriebsaufwände / 5% Betriebsoptimierung

Bis anhin sind wir (willkürlich) davon ausgegangen, dass 20% der Projektaufwände für den späteren Betrieb und die Wartung der Lösung aufgewendet werden müssen.

In diesem Szenario reduzieren wir diesen Wert auf 10%. Das heisst, dass eine Person für den Betrieb und die Weiterentwicklung der Lösung benötigt wird, falls 10 Personen für die Projektrealisierung tätig waren.

Wenn sich der Betrieb nach wie vor um 5% pro Jahr optimiert, resultiert in diesem Szenario eine Verteilung von ⅔ Betriebspersonal zu ⅓ Projektmitarbeitenden (Entwickler):

Entwicklung der Anzahl Mitarbeitende für Entwicklung und Betrieb bei 10% Wartungs-&Betriebsaufwände / 5% Betriebsoptimierung

 

Szenario 4: 10% Wartungs-&Betriebsaufwände / 10% Betriebsoptimierung

Im vierten Szenario werden sowohl die Aufwände für die Wartung und den Betrieb auf 10% der Projektaufwände als auch die Betriebsoptimierungen auf jährlich 10% gesetzt.

Entwicklung der Anzahl Mitarbeitende für Entwicklung und Betrieb bei 10% Wartungs-&Betriebsaufwände / 10% Betriebsoptimierung

 

Ob die Betriebsaufwände tatsächlich über mehrere Jahre jeweils um 10% gesenkt werden können, sei dahin gestellt.

Nur in dieser anspruchsvollen Kombination der Werte gelingt es durch laufende Optimierungen des Betriebs, die durch die neuen Applikationen zusätzlich dazukommenden Aufwendungen wieder zu kompensieren, so dass das Verhältnis zwischen Betriebsmitarbeitenden und Entwicklern aufrechterhalten werden kann.

In der Regel sind die Mitarbeitenden nicht nur für die Entwicklung neuer Systeme zuständig, sondern warten und betreiben die Systeme auch gleich noch. Gerade mit DevOps verschwimmen diese Grenzen immer mehr. D.h. es kann nicht einfach im Organigramm gezählt werden, wie viele Personen in welchem Bereich arbeiten. Vielmehr muss für jede IT-Spezialistin und jeden IT-Spezialisten das entsprechende Verhältnis von Entwicklung zu Betrieb betrachtet werden.

Und was ist mit Cloud-Lösungen? Bei SaaS-Lösungen wird die Problematik einfach zum Provider verlagert. Sie bleibt im Grundsatz bestehen, ist jedoch nicht mehr (oder nur noch in kleinerem Ausmass) das Problem der IT-Abteilung. Die Thematik hat sich nicht geändert, sondern wurde nur verschoben.


Frohe Festtage...

... und es guets Nois

 


Die IT kommuniziert immer besser

Steigerung um eine Viertelnote in 14 Jahren

Die Kommunikation zu den Kunden und Anwendern der Informatik ist häufig ein stiefmütterlich behandeltes Thema. Umso positiver ist es, dass bei den von uns untersuchten Firmen und öffentlichen Verwaltungen die Zufriedenheit mit der Kommunikation der IT laufend gesteigert werden konnte:

Entwicklung der Zufriedenheit mit der Kommunikationsleistung

 

Die Bewertung erfolgt jeweils mit sehr schlecht / schlecht / eher schlecht / eher gut / gut / sehr gut und wird in Schulnoten dargestellt (sehr schlecht = 1, sehr gut = 6).

Von der Note 4.19 im Jahr 2008 konnte die Zufriedenheit mit der Kommunikation der IT auf 4.43 im Jahr 2021 gesteigert werden. Dies zeigt, dass die IT-Abteilungen konsequent Verbesserungsmassnahmen aus den Umfrageresultaten erarbeitet und umgesetzt haben. Dass bei den Durchschnittswerten noch Luft nach oben vorhanden ist, zeigt der Bestwert von 5.09, der im Jahr 2020 von einer IT erreicht wurde, dessen CIO und Leitungsteam stark auf eine gute Kommunikation setzen.

Bei der Leistungsfähigkeit und Zuverlässigkeit (Performance und Verfügbarkeit) hat sich hingegen in den vergangenen Jahren nicht viel getan und die Zufriedenheit hat sich marginal von 4.47 auf 4.53 erhöht:

Entwicklung der Zufriedenheit mit der Leistungsfähigkeit und Zuverlässigkeit

 

Das gleich Unternehmen, das die Bestnote in der Kommunikation erreicht hat, erzielt auch bei der Leistungsfähigkeit und Zuverlässigkeit mit 5.07 eine Note, die weit über dem Durchschnitt liegt. Die Spitzenwerte zeigen, dass in allen Gebieten sehr gute Noten über 5 erreichbar sind.

IT-Abteilungen mit sehr guten Werten zeichnen sich in der Regel dadurch aus, dass sie die Anwenderzufriedenheit alle ein bis drei Jahre erheben und diese laufend mit verschiedenen Massnahmen steigern. In der Regel kosten solche Massnahmen kein oder nur wenig Geld und sind weniger eine Frage der finanziellen Mittel, sondern viel mehr der Ambitionen der IT-Leitung und aller Mitarbeitenden in der IT.


Zufriedenheit mit Service Desk stetig gestiegen

Steigerung um eine Viertelnote in 14 Jahren

Ähnlich wie die Gesamtzufriedenheit ist auch die Zufriedenheit mit dem Service Desk über die Jahre gestiegen:

Entwicklung der Zufriedenheit mit dem Service Desk

 

Die Bewertung erfolgt jeweils mit sehr schlecht / schlecht / eher schlecht / eher gut / gut / sehr gut und wird in Schulnoten dargestellt (sehr schlecht = 1, sehr gut = 6).

Insgesamt ist die Zufriedenheit mit dem Service Desk von 4.53 im Jahr 2008 auf 4.78 im Jahr 2022 gestiegen. Die zwischenzeitlichen Rückschläge in den Jahren 2013 und 2019 dürften auf statistische Schwankungen zurückzuführen sein, da wir nicht jedes Jahr bei den gleichen Unternehmen und öffentlichen Verwaltungen die Anwenderzufriedenheit erheben.

Im mit dem Service Desk eng verwandten Gebiet Onsite Support konnte die Zufriedenheit über die Jahre ebenfalls gesteigert werden:

Entwicklung der Zufriedenheit mit dem Onsite Support

 

Allerdings fällt die Steigerung geringer aus als im Service Desk. Dies dürfte darauf zurückzuführen sein, dass die Zufriedenheit mit dem Onsite Support ein höheres Niveau aufweist wie der Service Desk.

Der Onsite Support wird übrigens bei praktisch allen Umfragen am besten beurteilt. Dies dürfte daran liegen, dass hier der direkteste und vor allem auch persönlichste Kontakt stattfindet und die Anwender die Personen im Onsite Support teilweise persönlich kennen.

Wie wir bereits bei der Gesamtzufriedenheit im letzten KPI of the month gesehen haben, steigt diese über die Jahre an. Ein wesentlicher Beitrag zur Steigerung der Anwenderzufriedenheit haben sicherlich die Unternehmen und öffentlichen Verwaltungen geleistet, die wir regelmässig untersuchen. In den meisten Fällen ist bei der wiederholten Durchführung eine Steigerung zu beobachten, da entsprechende Massnahmen aus der letzten Erhebung erarbeitet und umgesetzt worden sind.


Gesamtzufriedenheit mit IT-Leistungen stetig gestiegen

Steigerung um eine Viertelnote in 14 Jahren

Durch die Erhebung der Gesamtzufriedenheit mit den IT-Leistungen kann auf einen Blick beurteilt werden, wie die Leistungen der IT bei den Anwendern ankommen. Die Gesamtzufriedenheit ist ein berechneter Wert, der sich aus der Zufriedenheit der folgenden Gebiete zusammensetzt:

  • Service Desk
  • Onsite Support
  • Leistungsfähigkeit und Zuverlässigkeit (Performance und Verfügbarkeit)
  • Kommunikation der IT
  • Schulungsangebot

Die Bewertung erfolgt jeweils mit sehr schlecht / schlecht / eher schlecht / eher gut / gut / sehr gut und wird in Schulnoten dargestellt (sehr schlecht = 1, sehr gut = 6).


Entwicklung der Gesamtzufriedenheit

 

Die Gesamtzufriedenheit mit den IT-Leistungen hat sich in den vergangenen Jahren kontinuierlich gesteigert und sich von 4.33 im Jahr 2008 auf 4.58 im Jahr 2021 entwickelt. Die Steigerung um eine Viertelnote (0.25) in 14 Jahren mag gering erscheinen und zeigt, dass es nicht einfach ist, die Zufriedenheit signifikant zu steigern.

Ein wesentlicher Beitrag zur Steigerung der Anwenderzufriedenheit haben sicherlich die Unternehmen und öffentlichen Verwaltungen geleistet, die wir regelmässig untersuchen. In den meisten Fällen ist bei der wiederholten Durchführung eine Steigerung zu beobachten, da entsprechende Massnahmen aus der letzten Erhebung erarbeitet und umgesetzt worden sind.

Aber auch bei IT-Abteilungen, deren Zufriedenheit wir zum ersten Mal erheben, treten zum Teil sehr gute Resultate auf.

Auch hier gilt: Keine Regel ohne Ausnahme. Bei einigen Firmen sinkt die Zufriedenheit mit den IT-Leistungen auch wieder. Dies ist häufig zu beobachten bei einem Technologiewechsel, bis die neue Technologie wieder stabil und performant läuft oder nach einem Wechsel im IT-Management oder nach einem Outsourcing.


Farb-Clicks fast siebenmal teurer als schwarz-weiss Clicks

4.78 Rappen für einen Farb-Click

Die im Rahmen der durchgeführten Benchmarks erhobenen Clickpreise für Farb-Seiten schwanken zwischen 2 und 11 Rappen und damit um mehr als einen Faktor 5:

Kosten pro Farb-Click in Rappen

 

Im Durchschnitt kostet ein Click für eine Farb-Seite 4.78 Rappen.

Gemäss KPI of the month vom Mai 2022 werden pro Drucker gut 43 000 Seiten pro Jahr gedruckt. Falls alle Seiten farbig ausgedruckt würden (was eher unrealistisch sein dürfte), fallen damit pro Jahr Tonerkosten von CHF 2 055 an, im Gegensatz zu CHF 300, falls alle Seiten nur schwarz/weiss gedruckt werden.


300 Franken Tonerkosten pro Jahr und Drucker

0.72 Rappen für einen schwarz/weiss Click

Die im Rahmen der durchgeführten Benchmarks erhobenen Clickpreise für schwarz/weiss Seiten schwanken beinahe um den Faktor drei zwischen 0.45 Rappen und 1.3 Rappen pro Seite:

Kosten pro schwarz/weiss Click in Rappen

 

Im Durchschnitt kosten ein Click für eine schwarz/weiss Seite 0.72 Rappen.

Wie wir im KPI of the month Mai 2022 gesehen haben, werden pro Drucker gut 43 000 Seiten pro Jahr gedruckt. Damit fallen pro Drucker im Jahr gut CHF 300 für Tonerkosten an, falls alle Seiten nur schwarz/weiss und nicht in Farbe gedruckt werden.

Farbseiten weisen einen wesentlich höheren Clickpreis auf. Dies werden wir im nächsten KPI of the month beleuchten.


Immer mehr Mail-Speicherplatz

3.5 GB Mail-Speicherplatz pro Benutzer

Im KPI of the month vom März 2015 haben wir geschrieben, dass jeder Benutzer im Durchschnitt 780 MB Mail-Speicherplatz benötigt. 7 Jahre später sind es gut 3.5 GB.

Damit ist der belegte Speicherplatz für E-Mail in 7 Jahren um beinahe den Faktor 5 gewachsen. Verglichen mit den 50 GB Speicherplatz von Office 365 sind 3.5 GB jedoch immer noch lächerlich und es stellt sich die Frage, ob der Mailspeicher heute immer noch limitiert werden soll. Die Storage-Preise sind so stark gesunken, so dass die Kosten für den Speicherplatz kaum noch relevant sind.


Aber vielleicht klärt sich diese Frage mit der Zeit von allein, wenn immer mehr Firmen (und mit der Zeit auch öffentliche Verwaltungen) Office 365 nutzen und keine eigenen Exchange-Server mehr betreiben.

PS: Auf dem Storagesystem stehen im Schnitt sogar gut 6 GB Speicherplatz für E-Mails zur Verfügung. Damit sind die vorhandenen Reserven beinahe gleich gross wie der belegte Speicherplatz.

 

 


Hohes Druckvolumen

43 000 Seiten pro Drucker (MFP) im Jahr

Das jährliche Druckvolumen pro MFP (Multi Funktions Printer) schwankt je nach untersuchter Organisation sehr stark:

Gedruckte Seiten pro Drucker (MFP)

 

Während die MFP bei einigen Organisationen kaum genutzt werden, drucken andere Einheiten gegen oder über 100 000 Seiten pro Jahr pro MFP. Das durchschnittliche Druckvolumen pro MFP beträgt dabei gut 43 000 Seiten.

Dies bedeutet, dass die meisten Organisationen ihre Drucker noch stärken auslasten könnten. Im Durchschnitt teilen sich 7.5 Benutzer einen Drucker. Rein von der Kapazität her könnten daher die Drucker noch deutlich stärker ausgelastet werden. Häufig setzt jedoch das Gebäude-Layout der Druckerkonsolidierung Grenzen: Während sich in Grossraumbüros sehr viele Personen einen Drucker teilen können, ist dies in verwinkelten und kleineren Gebäuden hingegen viel schwieriger.

Dabei stellt sich natürlich die Frage, ob überhaupt noch so viel gedruckt werden muss. Die Pandemie und die damit einhergehende Homeoffice-Pflicht oder Empfehlung haben gezeigt, dass es auch mit deutlich weniger Drucken geht.


Die IT-Infrastruktur wird häufig nicht rund um die Uhr überwacht

Unüberwachte Zeit von 43 Stunden pro Woche

Die Betriebszeiten der IT-Infrastruktur (Server, Storage, Netzwerk usw.) teilen sich wie folgt auf:

Verteilung der Betriebszeiten

 

Bedienter Betrieb: Im Durchschnitt wird die IT-Infrastruktur während 47.2 Stunden in der Woche überwacht. Dies entspricht knapp 9.5 Stunden pro Tag oder z.B. von 8.00 bis 17.30 Uhr. Das bedeutet, dass während der üblichen Bürozeiten auch die IT-Spezialisten vor Ort sind und bei einem Problem unmittelbar eingreifen können.

Überwachter Betrieb: Einige Unternehmen überwachen ihre IT-Infrastruktur rund um die Uhr und können ausserhalb der Betriebszeiten über eine Pikett-Organisation bei Problemen und Ausfällen reagieren. Im Schnitt sind dies pro Woche knapp 78 Stunden oder 15.5 Stunden pro Tag, falls das Wochenende nicht berücksichtigt wird. Zusammen mit den 9.5 Stunden für den bedienten Betrieb, ergibt dies 25 Stunden pro Tag… Das heisst, dass bei einigen wenigen Unternehmen die Systeme ebenfalls noch am Wochenende überwacht werden.

Unüberwachter Betrieb: Über alle gebenchmarkten Unternehmen werden die Systeme an knapp 43 Stunden pro Woche gar nicht überwacht. D.h. es findet auch keine Alarmierung statt und es steht auch keine Pikett-Organisation zur Verfügung, die bei einem Ausfall automatisch alarmiert wird.

IT-Abteilungen mit einem echten 24/7 Betrieb treffen wir bei unseren Benchmarks praktisch keine an. Dies liegt daran, dass die Firmen selbst auch keinen 24/7 Betrieb aufweisen. Teilweise werden die Systeme rund um die Uhr überwacht, damit bei einem Ausfall automatisch die Pikett-Organisation aufgeboten werden kann. Bei einem erstaunlich grossen Anteil werden die Systeme jedoch nicht überwacht und die IT-Organisation steht nur während der Bürozeiten zur Verfügung. Natürlich wird bei Problemen ausserhalb der üblichen Arbeitszeiten trotzdem versucht, die entsprechenden IT-Spezialisten aufzubieten, aber dies erfolgt dann auf gut Glück und nicht über eine systematische Überwachung der Systeme und einer entsprechenden Pikett-Organisation.

Dort, wo eine Pikett-Organisationen vorhanden ist, verfügt diese in der Regel über eine Reaktionszeit von 30 oder 60 Minuten. Im Durchschnitt beträgt sie 43 Minuten.


Lange Incident-Lösungszeiten

Durchschnittliche Lösungszeit: 6.8 Tage

Die durchschnittliche Zeit für die Lösung eines Incidents, der dem Service Desk gemeldet wird, beträgt 6.8 Tage:

Durchschnittliche Incident-Lösungszeit

 

Dies ist ein vergleichsweise hoher Wert. Vor allem, wenn bedenkt wird, dass der Service Desk rund zwei Drittel aller Incidents selbst lösen kann.

In den 6.8 Tagen ist jedoch nicht nur die Lösungszeit des Service Desks enthalten, sondern ebenfalls die Zeiten aller anderen IT-Abteilungen, die zur Lösung eines Incidents nötig sind. Lange Lösungszeiten sind daher Hinweise auf die folgenden Punkte:

1) Der Incident Management Process ist nicht implementiert resp. wird nicht gemanaged und überwacht.

2) Es fehlt ein Incident Manager, der die Incidents und deren Lösung überwacht und dort interveniert, wo die Lösung zu lange dauert oder die Incidents immer wieder an andere Stellen in der IT verschoben (oder hin und her geschoben) werden.

3) Der Problem Management Prozess fehlt und Incidents werden über Wochen und Monate offen gelassen, anstatt ein Problem zu eröffnen.

Bei praktisch jedem Review des Incident Management Prozesses sind wir auf offene Incidents gestossen, die über ein Jahr alt waren. An diesen Incidents wird in der Regel nicht mehr gearbeitet, aber sie treiben die durchschnittliche Lösungszeit nach oben.

IT-Abteilungen, die über einen funktionierenden Incident und Problem Management Prozess verfügen, die Incident-Lösungszeit messen und einen aktiven Incident Manager haben, erreichen durchschnittliche Incident-Lösungszeiten zwischen einem und zwei Tage. In Extremfällen sogar unter einem Tag.

Diese IT-Abteilungen sind in der Regel nicht teurer als IT-Abteilungen mit höheren Incident-Lösungszeiten. Eine stringente Implementation des Incident Management Prozesses kostet in der Regel nicht mehr Geld, sondern spart Geld. Man muss es nur tun.


Thin-Clients stagnieren auf tiefem Niveau

12% aller Endgeräte sind Thin-Clients

Interessanterweise ist der Anteil der Thin-Clients und damit der Unternehmen, die auf Citrix oder eine entsprechende Technologie setzen, in unseren Benchmarks über die Jahre konstant geblieben:

Anteil der Thin- resp. Fat-Clients

 

Mit nur gerade 13% resp. 12% ist der Anteil der Thin-Clients allerdings verhältnismässig klein und zeigt, dass die meisten Unternehmen auf Fat-Clients setzen. Die 3% aufgeführten Spezialgeräte sind in der Regel ebenfalls Fat-Clients (z.B. CAD-Workstations oder Banken-Handelsarbeitsplätze).

Während die Notebooks in der Pandemie und der Homeoffice-Empfehlung resp. -Pflicht grosse Vorteile gegenüber den Desktops aufweisen, haben die Thin-Clients in dieser Situation ebenfalls entsprechende Vorteile: Die Thin-Clients werden zwar in der Regel nicht nach Hause genommen, aber dafür kann mit dem Citrix Receiver resp. der Citrix Workspace App vom privaten PC auf die Firmenumgebung zugegriffen werden, so dass kein Firme-Gerät mit nach Hause genommen werden muss.

Im Durchschnitt kostet ein Thin-Client CHF 85 pro Jahr während ein Desktop CHF 176 und Notebooks CHF 293 pro Jahr kosten. Ein Teil geht auf die tieferen Beschaffungskosten der Thin-Clients zurück und der andere Teil auf die mit sechs Jahren um rund ein Jahr längere Nutzungsdauer als bei Desktops. Dazu kommen geringere Onsite Supportkosten für Thin-Clients, so dass auf der Seite der Endgeräte deutlich tiefere Kosten anfallen.

Diese Kostenvorteile werden in der Regel jedoch auf der Server-Seite (teilweise mehr als) kompensiert durch die aufwändige Server-Infrastruktur und die Virtualisierungs-Lizenzen.

Abgesehen von den Kosten gibt es jedoch noch zwei weitere Aspekte zu betrachten:

  • Die meisten Virtualisierungslösungen haben Probleme mit Videokonferenzen
  • Mit Office 365 und weiteren Cloud resp. SaaS-Lösungen werden die Clients immer mehr direkt mit dem Internet verbunden und nicht mehr über das eigene Rechenzentrum mit der Virtualisierungslösung

Mit dem Trend zu mehr mobilen Geräten dürfte die Anzahl der Thin-Clients wohl zurück gehen. In unseren aktuellen Benchmark-Zahlen ist noch kaum etwas davon erkennbar, aber die Diskussionen in den Firmen drehen sich eher um einen Wechsel zu Notebooks wie um einen Ausbau der Thin-Clients. Und mit der immer weiter fortschreitenden Verbreitung von Office 365 und dem Bezug von Services aus der Cloud (O365 oder auch SaaS-Lösungen) machen Thin-Clients immer weniger Sinn.


Klarer Trend zu Notebooks

47% aller Endgeräte sind Notebooks

Die Notebooks verdrängen die Desktops immer mehr. Bis 2009 ist der Anteil der Notebooks in unseren Benchmarks unter 20% gelegen. Bis 2016 wurde der Anteil auf 30% gesteigert, um im letzten Jahr (2021) knapp 50% zu erreichen:

Anteil der Desktops resp. Notebooks

 

Dabei ist zu beachten, dass bei der Erhebung der Benchmark-Werte alle aktuell vorhandenen Endgeräte erfasst werden. Also auch solche, die bereits vor vier Jahren beschafft wurden und bei einem Wechsel auf eine Notebook-Strategie erst nach und nach durch mobile Geräte abgelöst werden. Zudem enthalten unsere Durchschnittswerte üblicherweise die Benchmarks der letzten vier Jahre. Würden alle Werte heute erhoben, dürften die Notebooks die Desktops bereits überholt haben.

Die Pandemie mit der starken Förderung von Homeoffice hat sicherlich einen wichtigen Beitrag zur Steigerung der Notebook-Dichte geleistet. Aber auch sonst ist bei immer mehr Unternehmen eine Notebook-Only-Strategie zu beobachten.

Die Notebooks sind mit durchschnittlich CHF 1 345 in der Beschaffung teurer als Desktops mit durchschnittlich CHF 878. Dazu kommt mit 4.59 Jahren versus 5.0 Jahren eine leicht kürzere Nutzungszeit. Daraus resultieren jährliche Kosten von CHF 293 für Notebooks versus CHF 176 für Desktops. D.h. Notebooks kosten pro Jahr 66% mehr als Desktops.

Beim Desktop kommt noch (mindestens) ein Monitor dazu. Dieser kostet durchschnittlich CHF 245 in der Beschaffung und wird im Schnitt 6 Jahre eingesetzt. Das macht CHF 41 pro Jahr bei einem resp. CHF 82 pro Jahr mit zwei Bildschirmen. Häufig kommt bei den Notebooks jedoch auch ein (oder teilweise auch zwei) Monitore und noch eine Dockingstation dazu, so dass die Preisdifferenz zum Desktop erhalten bleibt oder durch die Dockingstation sogar noch leicht anwächst.

Kostenmässig scheint sich eine reine Notebook-Strategie nicht zu lohnen. Sobald man jedoch nicht nur die reinen Beschaffungs- resp. Abschreibungskosten betrachtet, kann der Verzicht auf Desktops jedoch durchaus Vorteile bringen:

  • Das Notebook kann überall mitgenommen werden. Auch ins Homeoffice.
  • Notebooks erlauben eine andere Support-Strategie, indem die IT nicht mehr zum Benutzer, sondern der Benutzer (resp. das Notebook) zur IT kommt.
  • Das Gleiche gilt für die Auslieferung: Notebooks können per Post direkt an den entsprechenden User geschickt werden ohne dass IT-Leute dazu notwendig sind.
  • Bei einem Umzug ist die IT nicht oder nur noch reduziert nötig, indem die Notebooks einfach im neuen Büro eingesetzt werden.

Ob sich eine reine Notebook-Strategie lohnt, muss jedes Unternehmen für sich entscheiden. Vor allem dann, wenn rein stationäre Arbeitsplätze gar nicht von Notebooks profitieren können. Unsere Benchmarkzahlen zeigen jedoch klar, dass die Notebooks die Desktops bald überholt haben werden.


Teure Linux-Server in der Industrie wegen SAP

Kosten pro virtuelle Server nach Branche

Virtuelle Server gibt es in den verschiedensten Ausprägungen. Primär sind die Kosten von der Anzahl der virtuellen CPU sowie vom virtuellen RAM abhängig. Da die Grösse des zur Verfügung stehenden Memories der grössere Kostentreiber ist, haben wir die folgenden Kategorien gebildet:
• VM Klein (bis 4 GB RAM)
• VM Mittel (4-16 GB RAM)
• VM Gross (>16 GB RAM)

Bei den kleinen Servern bis 4 GB RAM fallen die sehr tiefen Kosten der Industrie sowie die sehr hohen Kosten der Finanzdienstleister für die Windows-Server auf. Die Verwaltungen bewegen sich nahe am Datenbank-Durchschnitt (DB-Durchschnitt):

Kosten der virtuellen Server (VM) mit weniger als 4 GB pro Jahr in Schweizer Franken

 

Die Kosten für die Linux-Server sind wesentlich ausgeglichener und schwanken nur geringfügig unter den verschiedenen Branchen. Während die Linux-Server bei den Finanzdienstleistern und den Verwaltungen teilweise deutlich unter den Kosten der Windows-Server liegen, besteht im Datenbank-Durchschnitt kaum ein Unterschied zwischen den Windows- und Linux-Servern.

Bei den mittleren Servern (4-16 GB RAM) fallen die vergleichsweise teuren Linux-Server der Industrie-Unternehmen auf. Dies dürfte daran liegen, dass in der Industrie SAP in der Regel auf Linux-Servern betrieben wird und hier in der Kategorie der mittleren Server die VM eher mit 16 GB und weniger mit 4 GB ausgestattet sind:

Kosten der virtuellen Server (VM) mit 4 - 16 GB pro Jahr in Schweizer Franken

 

Dieser Effekt fällt bei den grossen Linux-Servern noch stärker ins Gewicht. Bei SAP-Installationen kommen teilweise Linux-Server mit mehreren Duzend (oder sogar mehreren Hundert) GB RAM zum Einsatz. Bei den anderen Branchen liegt die Speicherausstattung eher bei 16 oder 32 GB RAM.

Kosten der virtuellen Server (VM) mit mehr als 16 GB pro Jahr in Schweizer Franken

 

Abgesehen von diesem Effekt, bestehen kaum Unterschieden bei den Kosten zwischen den Windows- und Linux-Servern.

Die Einteilung der Server in die Kategorien klein / mittel / gross hilft, die Kosten vergleichbar zu machen. Wie das Beispiel SAP der Industrie-Unternehmen zeigt, ergeben sich daraus jedoch auch gewisse Unschärfen. Daher ist das Cloud-Angebot der grossen Cloud-Anbieter so umfangreich und deckt beinahe jede Facette und Ausprägung von virtuellen Servern ab.


Windows-Server sind nicht teurer als Linux-Server

Kosten pro virtuelle Server

Die Kosten für virtuelle Server sind in den letzten Jahren laufend gesunken. Unsere Benchmarks von beinahe 100 Firmen und öffentlichen Verwaltungen mit insgesamt einigen Zehntausend virtuellen Servern zeigen folgendes Bild:

Kosten der virtuellen Server (VM) pro Jahr in Schweizer Franken

 

Da die Grösse des zur Verfügung stehenden Memories ein signifikanter Kostentreiber ist, haben wir die folgenden Kategorien gebildet:
• VM Klein (bis 4 GB RAM)
• VM Mittel (4-16 GB RAM)
• VM Gross (>16 GB RAM)

Dabei fällt auf, dass die Windows-Server Mittel und Gross leicht günstiger sind als die Linux-Server. Die Unterschiede sind allerdings gering und dürften darauf zurückzuführen sein, dass die IT in der Regel mehr Windows- als Linux-Server betreibt. Bei den kleinen Servern (bis 4 GB RAM) sind die Linux-Server leicht günstiger.

Werden die Kosten pro Monat anstatt pro Jahr betrachtet, kostet ein kleiner Server unter CHF 100 und ein grosser Server nur gerade knapp CHF 200 pro Monat. Dies ist in der Regel günstiger als die Outsourcing-Angebote und häufig auch günstiger als Server aus der Cloud. Outsourcing und Cloud haben jedoch andere Vorteile.

Die folgenden Aufwände sind in den obigen Kosten enthalten:
• Hardware der Hosts (Abschreibungen und HW-Wartung)
• Alle benötigen Lizenzen inkl. Wartung und Supportverträgen
• Interne und externe Personalkosten für das Engineering, Aufsetzen, Betrieb, Administrieren, Überwachen usw.

Nicht darin enthalten sind die folgenden Kosten:
• Datacenter (Raum, Klima, Strom)
• Datacenter Netzwerk
• Firewalls, Proxy usw.
• Storagesystem (SAN, NAS usw.) und Backup
• Sämtliche Kosten für die auf den Server betriebenen Applikationen

Bei einem Vergleich mit Angeboten von Outsourcing- oder Cloud-Providern müssen diese Kosten natürlich ebenfalls berücksichtig werden. Insgesamt dürften diese rund 20% ausmachen (natürlich ohne die Kosten für Storage und Backup sowie für den Betrieb der auf den Server laufenden Applikationen).

Aus Kostengründen lohnt es sich in der Regel nicht, die Server in eine Cloud oder zu einem Outsourcing-Anbieter auszulagern. Mit der immer stärkeren Verbreitung von Office 365 (M365) und SaaS-Lösungen werden faktisch jedoch immer mehr Server aus der Cloud bezogen und immer weniger selbst betrieben.


Performance und Verfügbarkeit sind Schlüsselfaktoren

Korrelation der Parameter bei der Leistungsfähigkeit und Zuverlässigkeit

Bei der Befragung zur Leistungsfähigkeit und Zuverlässigkeit (Performance und Verfügbarkeit) der IT-Infrastruktur werden die verschiedenen Gebiete wie folgt beurteilt:

Zufriedenheit der einzelnen Gebiete bei der Leistungsfähigkeit und Zuverlässigkeit

 

Dabei lauten die Fragestellungen wie folgt:

Unterstützung: Wie gut werden Sie im Arbeitsprozess durch die PC-Infrastruktur unterstützt?

Problemlösung: Werden gemeldete Probleme in einer für Sie nützlichen Frist behoben?

Lieferungen: Wie beurteilen Sie den Ablauf, die Lieferung und Installation von Informatikmitteln?

Verfügbarkeit: Wie beurteilen Sie die Zuverlässigkeit der Informatik-Infrastruktur?

Performance: Wie beurteilen Sie die Leistungsfähigkeit der Informatik-Infrastruktur?

Gesamtzufriedenheit: Wie beurteilen Sie insgesamt die Leistungsfähigkeit und die Zuverlässigkeit der von Ihnengenutzten Informatikmittel?

 

Wie wir bereits beim Service Desk und Onsite Support gesehen haben, weisen die Gebiete, die am stärksten mit der Gesamtzufriedenheit korrelieren, beinahe die umgekehrte Reihenfolge auf.

Korrelation der einzelnen Gebiete mit der Gesamtzufriedenheit der Leistungsfähigkeit und Zuverlässigkeit

 

Wird die Zufriedenheit auf der Y-Achse und die Korrelation auf der X-Achse aufgetragen, wird das Bild deutlicher:

Zufriedenheit der einzelnen Gebiete versus Korrelation mit Gesamtzufriedenheit bei der Leistungsfähigkeit und Zuverlässigkeit

 

Performance und Verfügbarkeit sind die Gebiete mit der schlechtesten Beurteilung und weisen gleichzeitig die grösste Korrelation mit der Gesamtzufriedenheit auf. Das heisst, dass es sich am meisten lohnt, die Performance und Verfügbarkeit zu verbessern, um die Zufriedenheit bezüglich Leistungsfähigkeit und Zuverlässigkeit zu steigern.

Die Bereiche Problemlösung, Lieferungen und Unterstützung im Arbeitsprozess durch die PC-Infrastruktur werden besser beurteilt, weisen aber eine geringere Korrelation mit der Gesamtzufriedenheit auf, so dass sich Verbesserungen in diesen Gebieten weniger auswirken.

Damit muss die PC-Infrastruktur vor allem schnell und stabil sein, um zufriedene Benutzer zu haben.


Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) ist der wichtigste Parameter im Onsite Support

Korrelation der Parameter im Onsite Support

Im Onsite Support werden die Erreichbarkeit sowie die Freundlichkeit mit Abstand am besten beurteilt:

Zufriedenheit der einzelnen Gebiete im Onsite Support

 

Interessanterweise korrelieren diese beiden Gebiete am wenigsten mit der Gesamtzufriedenheit mit dem Onsite Support:

Korrelation der einzelnen Gebiete mit der Gesamtzufriedenheit im Onsite Support

 

Auffallend ist, dass die Reihenfolge bei der Korrelation genau umgekehrt ist wie bei der Zufriedenheit. Dies wird nochmals deutlicher, wenn man die beiden Parameter auf je einer Achse darstellt:

Zufriedenheit der einzelnen Gebiete versus Korrelation mit Gesamtzufriedenheit im Onsite Support

 

Die Erreichbarkeit erreicht zwar die beste Beurteilung, weist allerdings auch die geringste Korrelation mit der Gesamtzufriedenheit im Onsite Support auf. Auf der anderen Seite wird die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) am schlechtesten beurteilt, weist dafür aber die grösste Korrelation auf.

Das heisst, dass es sich am meisten lohnt, die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) zu verbessern, um die Zufriedenheit im Onsite Support zu steigern.

Die Fachkompetenz sowie die Freundlichkeit weisen praktisch die gleiche Korrelation mit der Gesamtzufriedenheit auf. Da die Fachkompetenz jedoch schlechter beurteilt wird wie die Freundlichkeit, lohnt es sich mehr, in die Fachkompetenz zu investieren als die Freundlichkeit noch weiter zu steigern.

Die Erreichbarkeit des Onsite Supports weist hingegen bereits eine sehr hohe Zufriedenheit, aber die geringste Korrelation auf, so dass hier eine weitere Steigerung kaum noch etwas bringt.

Übrigens: Bei der Analyse des Service Desks haben wir gesehen, dass die Zufriedenheit mit einem spezifischen Gebiet (z.B. Effizienz) negativ korreliert mit der Korrelation des Gebietes mit der Gesamtzufriedenheit. D.h. je schlechter ein Gebiet beurteilt wird, desto höher ist deren Abhängigkeit (Korrelation) von der Gesamtzufriedenheit.

Während sich im Onsite Support die Gebiete Erreichbarkeit und Freundlichkeit analog verhalten wie im Service Desk, verhalten sich die Fachkompetenz und Effizienz gerade umgekehrt. Das heisst, je zufriedener die Anwender mit diesen Gebieten sind, desto grösser ist die Korrelation mit der Gesamtzufriedenheit:

Effizienz: Zufriedenheit mit Effizienz (Y-Achse) versus Korrelation mit Gesamtzufriedenheit (X-Achse)

 

Bei der Effizienz beträgt die Korrelation allerdings nur gerade +0.2 (resp. 20%) und bei der Fachkompetenz noch geringere +0.16 (16%):

Fachkompetenz: Zufriedenheit mit Störungsaufnahme (Y-Achse) versus Korrelation mit Gesamtzufriedenheit (X-Achse)

 


Störungsaufnahme und Lösungs-Effizienz sind die wichtigsten Parameter im Service Desk

Korrelation der Parameter im Service Desk

Im letzten KPI of the month haben wir gesehen, dass im Service Desk die am besten beurteilen Gebiete Freundlichkeit und Erreichbarkeit eine geringere Korrelation mit der Gesamtzufriedenheit mit dem Service Desk aufweisen wie die beiden schlechter beurteilten Gebiete Störungsaufnahme und Effizienz:

Zufriedenheit der einzelnen Gebiete versus Korrelation mit Gesamtzufriedenheit im Service Desk

 

Das heisst, dass es sich am meisten lohnt, die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) sowie die Störungsaufnahme (Problem aufnehmen/verstehen, Statusmeldungen) zu verbessern, um die Gesamtzufriedenheit mit dem Service Desk zu steigern. Die Fachkompetenz trägt ebenfalls stark zu Gesamtzufriedenheit bei, wird aber bereits gut beurteilt. D.h. dass hier eine weitere Steigerung (auf bereits hohem Niveau) schwierig sein dürfte.

Wenn die am schlechtesten beurteilen Gebiete Effizienz und Störungsaufnahme die grösste Korrelation mit der Gesamtzufriedenheit aufweisen, liegt die Vermutung nahe, dass die Korrelation hoch ist, weil die Zufriedenheit tief ist.

Störungsaufnahme: Zufriedenheit mit Störungsaufnahme (Y-Achse) versus Korrelation mit Gesamtzufriedenheit (X-Achse)

 

Bei der Störungsaufnahme trifft diese Vermutung nur in sehr geringem Umfang zu: Insgesamt beträgt die Korrelation zwischen der Zufriedenheit mit der Störungsaufnahme versus Korrelation mit der Gesamtzufriedenheit nur gerade -0.23 (resp. -23%). Dies kann kaum als signifikant betrachtet werden.

Und bei der Effizienz fällt die Korrelation mit nur gerade -0.08 (-8%) noch geringer aus und ist damit praktisch inexistent:

Effizienz: Zufriedenheit mit Störungsaufnahme (Y-Achse) versus Korrelation mit Gesamtzufriedenheit (X-Achse)

 

Das bedeutet, dass die hohe Korrelation der Gebiete Störungsaufnahme und Effizienz nichts mit der schlechten Beurteilung zu tun hat und es sich gleich doppelt lohnt, diese Punkte zu verbessern: a) ist die Korrelation mit der Gesamtzufriedenheit gross und b) weisen die eher schlechten Beurteilungen noch genügend Luft nach oben auf.


Effiziente Lösung durch Service Desk wichtiger als Freundlichkeit

Korrelation der Parameter im Service Desk

Nebst der Befragung der Gesamtzufriedenheit mit den Leistungen des Service Desks («Wie beurteilen Sie insgesamt die vom Servicedesk erbrachten Leistungen?») befragen wir üblicherweise ebenfalls die folgenden Teilgebiete des Service Desks:


Freundlichkeit: Wie beurteilen Sie den Service Desk bezüglich der Freundlichkeit?
Erreichbarkeit: Wie beurteilen Sie den Service Desk bezüglich der Erreichbarkeit?
Fachkompetenz: Wie beurteilen Sie den Service Desk bezüglich der Fachkompetenz?
Effizienz der Lösung: Wie beurteilen Sie den Service Desk bezüglich der Effizienz (Reaktionszeit, Lösungsgeschwindigkeit, etc.)?
Qualität der Störungsaufnahme: Wie beurteilen Sie den Service Desk bezüglich der Qualität der Störungsaufnahme (wird das Problem verstanden, bekomme ich Statusmeldungen, etc.)?

Die Beurteilung erfolgt in Worten und wird in Schulnoten umgerechnet (sehr schlecht = 1 | schlecht = 2 | ungenügend = 3 | genügend = 4 | gut = 5 | sehr gut = 6)

Zufriedenheit pro Gebiet in Schulnoten

Die Freundlichkeit wird mit Abstand am besten beurteilt, gefolgt von der Erreichbarkeit und der Fachkompetenz. Schlechter wie die Gesamtzufriedenheit werden die Qualität der Störungsaufnahme sowie die Effizienz der Lösung beurteilt. Dieses (oder ein ähnliches) Bild zeigt sich bei den meisten Befragungen des Service Desks und die Verantwortlichen sind meist zufrieden, dass die Freundlichkeit, Erreichbarkeit und Fachkompetenz so gut abgeschnitten haben.

Aber sind dies auch die relevanten Parameter für eine hohe Gesamtzufriedenheit mit dem Service Desk? Um dies herauszufinden, haben wir die Korrelation der verschiedenen Teilgebiete (Freundlichkeit, Erreichbarkeit usw.) mit der Gesamtzufriedenheit mit dem Service Desk ausgewertet:

Korrelation der verschiedenen Gebiete mit der Gesamtzufriedenheit mit dem Service Desk

Interessanterweise weisen genau die am schlechtesten bewerteten Gebiete (Effizienz und Störungsaufnahme) die höchste Korrelation mit der Gesamtzufriedenheit mit dem Service Desk auf. Und die am besten bewertete Gebiete (Freundlichkeit und Erreichbarkeit) weisen die geringste Korrelation auf.

Das bedeutet, dass sich eine weitere Steigerung der Freundlichkeit und Erreichbarkeit nur wenig in der Steigerung der Gesamtzufriedenheit mit dem Service Desk auswirkt. Viel mehr lohnt es sich, die Effizienz (Reaktionszeit, Lösungsgeschwindigkeit) sowie die Qualität der Störungsaufnahme (wird das Problem verstanden, bekomme ich Statusmeldungen, etc.) zu optimieren, da diese Parameter einen deutlich grösseren Einfluss auf die Gesamtzufriedenheit haben. Dazu kommt die Fachkompetenz, die ebenfalls einen grossen Einfluss auf die Gesamtzufriedenheit hat und mit 4.87 überdurchschnittlich beurteilt wird.

Insofern erstaunt das Resultat eigentlich nicht: Die Anwender wollen schnelle und effiziente Lösung ihrer gemeldeten Probleme durch kompetente Service Desk Mitarbeitende. Daher rufen sie den Service Desk an. Dass die Service Desk Agenten dabei gut erreichbar, freundlich und kompetent sind, ist eine Grundvoraussetzung und bei den meisten Service Desks inzwischen Standard.

Im nächsten KPI of the month wollen wir diese Resultate dann noch tiefer analysieren.


Leicht längere Wartezeit im Service Desk

Rückblick auf 150 durchgeführte Benchmarks

Ausdehnung der Servicezeiten, Steigerung des Anfragevolumens und gleichzeitig Senkung der Kosten. Dies geht nur dank der Effizienzsteigerung von 4 000 auf 6 000 behandelter Anfragen pro Service Desk Agent im Jahr. Dass dabei die Lösungsrate und die Gesprächsdauer gehalten werden konnten, ist eine starke Leistung der untersuchten Service Desks.

Einen kleinen Wermutstropfen gibt es jedoch:

Entwicklung der Wartezeit über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Die Wartezeit am Telefon ist von rund 15 Sekunden auf über 20 Sekunden angestiegen. 20 Sekunden sind jedoch nach wie vor ein guter Wert und kritisch wird es in der Regel erst bei Wartezeiten über 30 Sekunden.

Dies zeigt auch die Auswertung der verlorenen Calls, die sogar noch gesunken ist:

Entwicklung der verlorenen Calls über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Dies bedeutet, dass die Anwender die leicht längere Wartezeit problemlos akzeptieren und sogar tendenziell weniger auflegen, weil sie zu lange warten müssen.

Insgesamt haben damit die untersuchten Service Desks ihre Leistung ohne spürbare Qualitätseinbussen signifikant gesteigert. Chapeau!

Dies macht ein Outsourcing in ein Billiglohn-Land immer weniger attraktiv. Insbesondere wenn man bedenkt, dass eine hohe Lösungsrate nur erreicht werden kann, wenn das Service Desk eng mit den übrigen Abteilungen der IT zusammenarbeitet, und laufend durch die Engineers geschult wird. Zudem hat das Service Desk eine tragende Rolle im Incident und Problem Management, indem es das Engineering auf Fälle aufmerksam macht, die immer wieder auftreten und damit behoben resp. optimiert werden müssen. Das Service Desk ist das «Aushängeschild» der IT und kann nur eine gute Leistung erbringen, wenn es eng in die übrige IT eingebunden ist.


Effizienzsteigerung geht nicht auf Kosten der Lösungsrate

Rückblick auf 150 durchgeführte Benchmarks

Mit der Steigerung von 4 000 auf 6 000 behandelten Anfragen pro Agent im Jahr, stellt sich die Frage, ob dies Konsequenzen auf andere Parameter des Service Desks wie zum Beispiel die Lösungsrate hat:

Entwicklung der Lösungsrate über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Interessanterweise konnte die Lösungsrate gehalten resp. sogar noch leicht gesteigert werden. Damit ist die Vermutung widerlegt, dass die Service Desks die Effizienzsteigerung erreicht haben, indem sie die Lösungsrate gesenkt und nur noch als Call Center agiert haben.

Die Gesprächsdauer im Service Desk pro Fall hat sich parallel zur Lösungsrate entwickelt und ist ebenfalls minimal gestiegen:

Entwicklung der Gesprächsdauer pro Anfrage über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Dies passt absolut ins Bild, zeigt aber auch auf, dass die Effizienz nicht dadurch gesteigert wurde, indem die Gesprächsdauer einfach verkürzt worden ist.

Dies legt die Vermutung nahe, dass die Agenten zu Beginn der 2000er Jahre mehr Leerzeiten hatten, die mit dem höheren Anfragevolumen pro Agent nun deutlich zurück gegangen sind. Wenn man von 6 000 Anfragen pro Agent und 200 Arbeitstagen im Jahr ausgeht, dann ergibt dies 30 Anfragen pro Tag. Bei durchschnittlich 5 Minuten Gesprächsdauer, ergibt dies 150 Minuten oder 2.5 Stunden, die ein Service Desk Agent pro Tag am Telefon verbringt. Natürlich benötigt es teilweise noch Nacharbeiten für eine Anfrage und Schulung usw. muss auch sein, so dass es nicht möglich ist, den ganzen Tag am Telefon zu verbringen.

Konnte die Effizienz tatsächlich gesteigert werden ohne Nachteile in Kauf nehmen zu müssen? Im nächsten KPI of the month sehen wir, dass die Effizienzsteigerung doch mit einem kleinen Wermutstropfen verbunden ist.


Gestiegene Effizienz im Service Desk

Rückblick auf 150 durchgeführte Benchmarks

Wie ist es möglich, dass die Kosten pro Benutzer im Service Desk leicht gesunken sind, obwohl die Servicezeiten ausgebaut wurden? Betrachten wir zuerst die Entwicklung der Anfragen pro Benutzer:

Entwicklung der Anfragen pro Benutzer über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Die Anfragen pro Benutzer sind von rund 9 auf 11 Anfragen pro Benutzer im Jahr um über 20% gestiegen. Und dies, obwohl die Service Desks ihre Self Service Portale laufend ausgebaut haben. Zusammen mit den erweiterten Servicezeiten müsste das gestiegene Anfragevolumen die Kosten noch stärker erhöhen.

Dass dies nicht so ist, lässt sich an der Entwicklung der Benutzer pro Agent ablesen:

Entwicklung der Benutzer pro Agent über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Kamen Anfang der 2000er Jahre noch rund 500 Benutzer auf einen Agenten im Service Desk, hat sich dieses Verhältnis auf über 800 Benutzer pro Agent in den vergangenen Jahren gesteigert.

Dies zeigt sich auch in den deutlich gesteigerten Anfragen, die ein Service Desk Agent erledigt:

Entwicklung der Anfragen pro Agent im Jahr über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Hat ein Agent im Service Desk zu Beginn noch rund 4 000 Anfragen pro Jahr gelöst, sind es nun über 6 000. Nur dieser starken Steigerung der Effizienz ist es zu verdanken, dass die Kosten pro Benutzer leicht gesunken sind, obwohl die Servicezeiten ausgedehnt und das Anfragevolumen gestiegen sind.

Dies hat denn auch dazu geführt, dass die Kosten pro Anfrage von rund CHF 35 auf CHF 25 gesunken sind:

Entwicklung der Kosten pro Anfrage über die Zeit (der «unruhige» Verlauf geht auf statistische Schwankungen zurück)

Die höhere Auslastung der Service Desk Agenten sowie die gesunkenen Kosten lassen vermuten, dass damit die Service Desks ihre Lösungsrate senken mussten und nun vermehrt als Call Center agieren, die Störungen nur aufnehmen und nicht mehr selbst lösen. Wie wir im nächsten KPI of the month sehen werden, ist diese Vermutung jedoch falsch.


Günstigere Service Desks trotz längerer Servicezeiten

Rückblick auf 150 durchgeführte Benchmarks

Die Auswertung von über 150 Benchmarks des Services Desks ergibt einen leichten Anstieg der Anzahl Benutzer:

Entwicklung der Anzahl Benutzer über die Zeit

Dies lässt noch keine spezifischen Aussagen zu und zeigt nur auf, dass das durchschnittlich von uns gebenchmarkte Service Desk zu Beginn gut 2 000 und nun über 3 000 Benutzer aufweist. Die Werte der einzelnen Jahre schwanken teilweise recht stark, je nachdem welche Firmen wir gerade untersucht haben.

Interessanter ist die Entwicklung der Servicezeiten (angegeben in Servicestunden pro Woche) über die Jahre:

Entwicklung der Servicestunden pro Woche über die Zeit

Auch hier schwanken die Werte (insbesondere dann, wenn ein Service Desk mit 24/7 Betrieb dabei ist), aber es ist eine klare Tendenz zu ausgedehnteren Servicezeiten feststellbar. Waren Anfang der 2000er Jahre noch rund 50 Stunden pro Woche üblich, sind dies inzwischen eher 70 oder teilweise sogar 80 Stunden pro Woche.

Bei einer solch starken Ausweitung der Servicezeiten würde man erwarten, dass die Kosten parallel dazu ansteigen. Dies ist jedoch nicht der Fall:

Entwicklung der Kosten pro Benutzer im Monat pro Monat über die Zeit

Die Kosten bleiben praktisch konstant resp. sinken marginal von rund CHF 23 pro Benutzer im Monat auf rund CHF 21. Dass die Kosten leicht gesunken und nicht gestiegen sind, ist der laufend verbesserten Effizienz der Service Desks zu verdanken.

Mehr zu den Effizienzsteigerungen folgt dann im nächsten KPI of the month.


KPI-Prozess

KPI managen – aber wie?

Der KPI-Prozess beginnt mit der Messung der KPI. In der Regel stammen die KPI aus verschiedenen Systemen (Finanzsystem, Ticketsystem, Überwachungs-Tools, Projektportfolio, HR-System usw.) und werden in einem KPI-Tool konsolidiert. Die Erhebung der KPI sowie deren Eingabe im KPI-Tool erfolgt durch die verschiedenen KPI-Verantwortlichen (Leiter Service Desk, Leiter IT-Finanzen, Leiter Projektmanagement usw.).

Da die KPI praktisch immer aus verschiedenen Systemen stammen und in ein zentrales KPI-Tool eingegeben werden müssen, kommt praktisch in jedem KPI-Projekt die Frage auf, ob entsprechende Schnittstellen implementiert werden sollen. Dabei ist die Übernahme von Hand in das KPI-Tool in der Regel besser als eine Schnittstelle:

  • Pro KPI-Verantwortlichem sind es in der Regel nur wenige KPI, die eingegeben werden müssen
  • Bei der Eingabe der KPI können diese gleich plausibilisiert und hinterfragt werden
  • KPI, welche die Grenzwerte über- resp. unterschreiten können gleich entsprechend kommentiert und Massnahmen dazu erarbeitet und dokumentiert werden

Der Verantwortliche für den KPI-Prozess verlangt, bis wann alle KPI im KPI-Tool eingegeben sein müssen, damit diese anschliessend im IT-Führungsteam vorgestellt und besprochen werden können. Üblicherweise konzentriert sich das IT-Management nur auf die gelben und roten KPI und auf die Verbesserungsmassnahmen. Deshalb ist es wichtig, dass alle KPI, die nicht grün sind, kommentiert und mit Massnahmen versehen sind.

Die KPI-Verantwortlichen sehen üblicherweise alle KPI:

Gesamtsicht der KPI 

Ein KPI-Dashboard, das aus mehreren Duzend KPI besteht, ist nicht managementtauglich. Daher werden für das Management einer grösseren IT häufig nur die relevanten KPI in einem Cockpit zusammengefasst:

Cockpit für das IT-Management

Und natürlich ist es auch möglich, den IT-Kunden die für sie relevanten KPI zur Verfügung zu stellen:

Für die IT-Kunden relevante KPI

Mit der monatlichen Erhebung, Analyse und Optimierung der KPI wird sichergestellt, dass die IT-Leistungen in hoher Qualität erbracht werden und dass keine versteckten resp. unbekannten Risiken vorhanden sind. Sind alle KPI grün, so kann das IT-Management beruhigt schlafen. Und dort, wo gelbe oder rote KPI vorhanden sind, muss entsprechende Management-Attention aufgewendet werden, um die Situation wieder in den Griff zu bekommen. 


KPI im Überblick

Alles im grünen Bereich?

Je mehr KPI gemessen werden, desto schwieriger ist es, den Überblick zu behalten. Deshalb werden KPI am besten zu Gruppen zusammengefasst und die Gruppen farbig markiert:

Zusammenfassung der KPI zu Gruppen 

Für jede Gruppe (Ordner) wird spezifiziert, wie viele KPI darin grün sein müssen, damit der Ordner ebenfalls grün werden soll. Im obigen Beispiel ist der Ordner «Finanzen» grün, weil er nur gerade aus einem Ordner besteht (IT-Kosten), der ebenfalls grün ist. Und die IT-Kosten sind grün, weil über 60% (gemäss Anforderung) der KPI darin grün sind:

KPI der Gruppe «IT-Kosten»

So ist auf einen Blick ersichtlich, dass der Personalaufwand extern mit +5% eine Budgetabweichung aufweist, die ausserhalb des grünen Bereichs liegt. Alle anderen KPI sind jedoch grün und benötigen damit keine weitere Aufmerksamkeit. Der KPI «Verhältnis Sach- zu Personalkosten» ist grau, da hier keine Grenzwerte definiert sind. Dieser KPI ist rein informativ und hat damit keine Auswirkung auf die Farbe des Ordners.

In der ersten Grafik ist der Ordner «Services» gelb dargestellt, weil ein Ordner darin grün und der andere gelb ist. Werfen wir einen Blick in den grünen Ordner «Service Desk und Support»:

KPI der Gruppe «Service Desk und Support»

Obwohl hier ein KPI rot ist, wird der Ordner trotzdem grün dargestellt. Dies liegt daran, dass immer noch 67% aller KPI grün sind und damit die Schwelle von 60% überschreiten. Dies kann in KaaS (KPI as a Service) aber auch anders eingestellt werden, so dass Ordner rot dargestellt werden, sobald mindestens ein KPI darin rot ist.

Durch die Gliederung der KPI in Ordner wird auf einen Blick ersichtlich, ob alle (resp. die relevanten) KPI grün sind und damit die ganze IT bestens funktioniert oder wo gelbe oder rote Ordner resp. KPI vorhanden sind, die genauer angeschaut werden müssen.

 


KPI definieren – aber wie?

Definition der KPI

KPI werden üblicherweise sowohl numerisch als auch grafisch dargestellt. Im nachfolgenden Beispiel ist der Verlauf der Lösungsrate des Service Desks in unserer Lösung KPI as a Services (KaaS) dargestellt:

Darstellung des Verlaufs der Lösungsrate des Service Desks 

Das wichtigste ist sicher der aktuelle Wert (63% im November 2020) sowie der Verlauf der letzten Monate (blaue Kurve). Wieso der Wert im November plötzlich so stark abgesunken ist, werden wir gleich noch sehen.

Dazu kommt der Grenzbereich (grüne und rote Linie): Oberhalb der grünen Linie ist der KPI grün, unterhalb der roten Linie rot und dazwischen gelb. Manchmal ist es schwierig, den Grenzbereich bereits im Voraus fest zu setzen. Dann führt man den KPI am besten für ein paar Monate ohne Grenzbereich und setzt diesen danach auf Grund der Erfahrungswerte fest.

Ebenfalls in der obigen Grafik eingezeichnet ist der Benchmark von axeba (Durchschnitt aller gebenchmarkten Firmen, violette Linie) sowie der Mittelwert aller Service Desks, die KaaS verwenden. Diese beiden Linien geben gute Anhaltspunkte, wie der Grenzbereich gesetzt werden soll. In diesem Beispiel ist ein Service Desk mit einer sehr hohen Lösungsrate dargestellt, das sich nicht mit den Vergleichswerten der anderen Firmen zufrieden gibt.

Zu einem KPI gehören natürlich auch entsprechende Definitionen, Kommentare und Massnahmen, die nachfolgend dargestellt sind:

Definitionen, Kommentar und Massnahmen zum KPI Lösungsrate des Service Desks

 

In unserem Beispiel ist die Lösungsrate auf 63% abgesunken, was absolut betrachtet zwar ein guter Wert ist, für unser Service Desk jedoch eine signifikante Verschlechterung ist. Unsere Grundregel bei KPI ist, dass alle Werte, die entweder gelb oder rot sind, kommentiert werden sollen und ebenfalls entsprechende Massnahmen zur Verbesserung des KPI erarbeitet und dokumentiert werden sollen.

Dazu kommt die Definition der Schwellwerte (grün / rot) sowie wer für den KPI verantwortlich ist, aus welchem System (Datenquelle) die Daten stammen sowie das Intervall, in dem der KPI erhoben wird (üblicherweise monatlich).

Last but not least folgt die Definition des KPI. Wir haben die über 200 Standard KPI in KPI as a Service (KaaS) definiert, so dass diese von unseren KaaS-Kunden einfach übernommen und bei Bedarf angepasst werden können. Dies beschleunigt den Start eines KPI-Projektes ungemein und im Extremfall kann nach einem halben Tag bereits mit der Erhebung und Auswertung der KPI begonnen werden.

Damit sind die notwendigen Grundlagen geschaffen und im nächsten KPI of the month zeigen wir, wie die KPI zum Leben erweckt werden.


KPI messen – aber wie viele und welche?

Standard KPI von axeba

Einige Firmen messen gar keine KPI, andere über 100. Aber wie viele KPI sollten gemessen werden?

KPI bedeutet Key Performance Indicator. Mit “Key” sind die wichtigsten KPI gemeint und nicht alle KPI, die einem gerade in den Sinn kommen. Weniger ist mehr. Lieber ein paar wenige KPI, die dafür auch wirklich ausgewertet und aktiv verfolgt werden, wie mehrere Duzend KPI, die dann aber niemand anschaut.

Aber welches sind die richtigen KPI? Für die Gliederung orientieren wir uns an den Dimensionen der Balanced Score Card, die wir um ein paar wenige Dimensionen erweitert haben:

Finanzen: Einhaltung des Budgets, Benchmark der IT-Kosten aber auch Mengen wie Anzahl PC, Drucker usw.

Services: Anfragen an das Service Desk, Lösungsrate, Verlorene Calls sowie Verfügbarkeit der Systeme, Lieferzeiten, Einhaltung der SLA usw.

Projekte: Termin- und Budgeteinhaltung der Projekte sowie Anzahl laufende und abgeschlossene Projekte

Prozesse: Die wichtigsten Kennzahlen zu Incident-, Problem-, Change- und Configuration Management

Human Resources: Fluktuation, Überzeit- und Feriensaldo, Anteil externe Mitarbeitende usw.

Effizienz: Anzahl User pro Drucker, Anzahl User pro Service Desk Agent, Anteil Notebooks usw.

Bei der Auswahl der KPI stellen wir uns immer die Frage «wie hilft mir der KPI, eine kritische Situation zu erkennen?». Steigt z.B. die Fluktuation an, so ist dies ein Hinweis darauf, dass etwas bei den Mitarbeitenden oder in gewissen Teams nicht mehr stimmt. Oder wenn das Budget überschritten wird, sind die Finanzen nicht im Griff. Oder wenn bei Projekten die Termine und Budgets nicht eingehalten werden, stimmt dort etwas nicht.

Häufig betrachten wir die Situation von der negativen Seite resp. aus der Risikoperspektive: Wie erkenne ich, dass der IT-Betrieb Probleme hat? Wenn vermehrt Systeme ausfallen oder die Performance schlecht ist oder viele Anfragen an das Service Desk gelangen. Resp. umgekehrt: Wenn die Verfügbarkeit hoch, die Performance gut und die Anfragen an das Service Desk gering sind, kann ich davon ausgehen, dass der IT-Betrieb rund läuft.

Mit KPI auf der «grünen Wiese» zu starten ist gar nicht mal so einfach. Welche KPI sollen erhoben werden und wie werden diese definiert? Wir haben daher ein Standard-Set von über 200 KPI aus unserer über 20-jährigen KPI-Erfahrung erstellt und in unserer Lösung KPI as a Service (KaaS) implementiert:

Standard KPI von axeba

 

Bei über 200 KPI sieht man ja den Wald vor lauter Bäumen nicht mehr… Deshalb ist die Kunst, nur mit den wichtigsten KPI aus diesem Standard-Set zu beginnen und dies dafür sauber zu implementieren und konsequent zu verfolgen.

Mehr dazu dann im nächsten KPI of the month.


Jüngere Mitarbeitende sind zufriedener – aber nicht mit dem Support

Auswertung der Anwenderzufriedenheit bezüglich Alter

Im letzten KPI of the month haben wir gesehen, dass die jüngeren Mitarbeitenden die Leistungen der IT insgesamt besser beurteilen wie die älteren Mitarbeitenden:

Abweichung der Gesamtzufriedenheit zum Durchschnitt der Befragung

 

Werden die einzelnen Gebiete betrachtet, wiederholt sich dieses Bild jeweils mehr oder weniger ausgeprägt.
Mail (Outlook):

Abweichung der verschiedenen Alterskategorien zum Durchschnitt der Befragung

 

Dieses Bild zeigt sich auch bei der Beurteilung der Schulung:

Abweichung der verschiedenen Alterskategorien zum Durchschnitt der Befragung

 

Sogar SAP wird durch die jüngeren Mitarbeitenden deutlich besser beurteilt wie durch die älteren:

Abweichung der verschiedenen Alterskategorien zum Durchschnitt der Befragung

 

Interessanterweise kehrt sich dieses Bild beim Service Desk und beim Onsite Support:

Abweichung der verschiedenen Alterskategorien zum Durchschnitt der Befragung

 

 

Abweichung der verschiedenen Alterskategorien zum Durchschnitt der Befragung

 

Die Unterschiede der verschiedenen Altersgruppen sind zwar nicht gravierend, aber es fällt auf, dass hier genau umgekehrt beurteilt wird: Die älteren Mitarbeitenden geben eine bessere Beurteilung ab wie die jüngeren.

Dies legt die folgende Vermutung nahe: Die jüngeren Mitarbeitenden arbeiten noch nicht so lange bei der Firma wie die älteren Mitarbeitenden und können damit die Leistungen noch eher mit anderen Firmen vergleichen wie Mitarbeitende, die schon lange bei der Firma arbeiten.

Diese These stimmt jedoch nicht, da Mitarbeitende, die erst seit einem Jahr angestellt sind, das Service Desk und den Onsite Support überdurchschnittlich positiv beurteilen. Zudem schliessen beide Gebiete im Vergleich zu den übrigen Gebieten wesentlich positiver ab in der Gesamtbeurteilung. Daran kann es also nicht liegen.

Damit stellt sich die Frage, ob jüngere Mitarbeitende andere Anforderungen an den Support haben? Häufig ist zu beobachten, dass jüngere Personen viel weniger oft zum Telefon greifen und viel lieber auf ihrem Smartphone schreiben. Liegt es evt. daran, dass der klassische Telefon-Kanal des Service Desks bei den jüngeren Mitarbeitenden auf weniger Anklang stösst?

Eine klare Antwort kann aus den Umfrageresultaten nicht heraus gelesen werden. Aber evt. lohnt es sich, darüber nachzudenken, über welche (zusätzlichen) Kanäle das Service Desk (auch noch) erreicht werden kann.

Übrigens: Schreiben Sie den Kanal (Telefon, Mail, Web, Chat, Bot usw.) nicht vor. Viel eher sollen verschiedene Kanäle parallel angeboten werden, so dass sich die Benutzer den für sie am besten geeigneten wählen können.


Jüngere Mitarbeitende sind zufriedener

Auswertung der Anwenderzufriedenheit bezüglich Alter

Wir haben seit der Gründung der axeba ag über 43 Firmen bezüglich der Anwenderzufriedenheit befragt. Viele Firmen befragen wir jährlich oder alle zwei Jahre, so dass wir in über 150 Umfragen inzwischen mehr als 300 000 Anwenderinnen und Anwender befragt haben.

Eine Firma hat gewünscht, dass wir die Antworten auch bezüglich demografischer Kriterien (Alter, Firmenzugehörigkeit, Geschlecht) auswerten. In diesem KPI of the month zeigen wir daher auf, ob und welchen Einfluss demografische Kriterien auf die Anwenderzufriedenheit haben.

Die Auswertung der Gesamtzufriedenheit der Anwender mit der IT ergibt das folgende Bild:

Abweichung der Gesamtzufriedenheit zum Durchschnitt der Befragung

Bei der Gesamtzufriedenheit mit der IT urteilen die jüngeren Mitarbeitenden (bis 35 Jahre) deutlich besser wie die älteren Mitarbeitenden.

In der obigen Grafik ist die Abweichung zum Gesamtdurchschnitt aller Antworten dargestellt, ausgewertet nach Altersgruppen. Die Beurteilung wurde in Schulnoten (1-6) umgerechnet. Abweichungen von mehr als 0.1 Noten werden als signifikant betrachtet. Insofern sind die Unterschiede der Altersgruppen über 35 Jahre nicht signifikant und weichen kaum voneinander ab.

Werden die unterschiedlichen Gebiete, die befragt worden sind, näher betrachtet, so ergibt sich für die unter 25 Jährigen (726 Antworten / 5%) folgendes Bild:

Abweichung der befragten Gebiete zum Durchschnitt der Befragung

Der Onsite Support und das Service Desk werden schlechter bewertet wie der Durchschnitt aller Antworten, während alle anderen Gebiet positiver bewertet werden.

Bei den 25-35 Jährigen (2 811 Antworten / 19.5%) ergibt sich ein ähnliches Bild:

Abweichung der befragten Gebiete zum Durchschnitt der Befragung

Interessant ist, dass die Abweichungen deutlich kleiner werden (von rund -0.1 bis +0.3 nur noch auf -0.03 bis +0.12) und so die Beurteilung der verschiedenen Gebiete wesentlich näher zusammenrutscht. Da die Beurteilung der Gebiete nur noch sehr geringe Unterschiede aufweist, können aus der geänderten Reihenfolge kaum Rückschlüsse gezogen werden.

Bei den 35-45 Jährigen (3 407 Antworten / 23.6%) bekommen die negativen Stimmen etwas mehr Gewicht:

Abweichung der befragten Gebiete zum Durchschnitt der Befragung

Dabei ist jedoch auch hier zu beachten, dass die Unterschiede sehr gering sind (-0.09 bis 0.02).

Bei den 45-55 Jährigen (4 468 Antworten / 31%) wird das Bild noch homogener

Abweichung der befragten Gebiete zum Durchschnitt der Befragung

Das Service Desk wird nun positiver und nicht mehr negativer beurteilt, die Abweichungen zum Durchschnitt sind jedoch so gering, so dass diese Aussage statistisch auf wackeligen Beinen steht.

Bei den über 55 Jährigen (3 008 Antworten / 20.9%) ergibt sich ein interessantes Bild:

Abweichung der befragten Gebiete zum Durchschnitt der Befragung

SAP wird nun plötzlich am besten und Mail (Outlook) am schlechtesten beurteilt im Vergleich zum Durchschnitt.

Fazit: Die Altersgruppen unter 25 Jahren sowie 25-35 Jahren urteilen signifikant positiver wie die übrigen Altersgruppen mit den älteren Mitarbeitenden. Dabei fällt vor allem auf, dass die jüngeren Mitarbeitenden das Service Desk (und teilweise auch den Onsite Support) schlechter beurteilen wie die älteren Mitarbeitenden. SAP wird vor allem von den unter 25 Jährigen und den über 55 Jährigen positiv beurteilt.

Es fällt auf, dass mit zunehmendem Alter immer mehr Gebiete kritischer beurteilt werden. Die Ausschläge sind zwar gering, aber die Anzahl der kritisch beurteilten Gebiete nehmen mit zunehmendem Alter laufend zu,

Die 45-55 Jährigen beurteilen am ehesten wie der Durchschnitt. Diese Altersgruppe macht mit 31% aller Antworten jedoch auch den grössten Anteil aus.

Die gezeigten Auswertungen stammen nur gerade von einer Firma und eine Verallgemeinerung der Aussagen auf andere Firmen dürfte mit Vorsicht zu geniessen sein.


Ist grösser auch besser?

Outsourcing-Mythen

Wir hören immer wieder, dass Firmen von den Skaleneffekten der grossen Outsourcing-Provider profitieren wollen. Im letzten KPI of the month haben wir aber gesehen, dass die Skaleneffekte überbewertet sind und schon eine mittelgrosse IT mit knapp 2 000 Benutzern das üblicherweise vorhandene Skalenpotenzial ausschöpfen kann.

Wieso soll trotzdem ein grosser Provider gewählt werden? Weil diese über die besseren und innovativeren Lösungen wie die kleineren Anbieter verfügen? Auch das stimmt in der Regel nicht.

Grosse, internationale Provider drängen sich vorwiegend bei den folgenden Konstellationen auf:

  • Die eigene Firma ist selber sehr gross: In diesem Fall kann natürlich kein Provider gewählt werden, der etwa gleich gross oder sogar noch kleiner wie die eigene IT wäre. Man würde in diesem Fall zum grössten Kunden und kann nicht von den Erfahrungen des Providers mit anderen Kunden profitieren, sondern würde von diesem laufend Dinge verlangen, die er in dieser Grössenordnung noch nicht kennt.
  • Die eigenen Firma ist international: Falls die IT für alle Standorte ausgelagert werden soll, dann muss der Outsourcing-Provider natürlich auch international auftreten können und entsprechend organisiert sein. Hier kommen kleinere, lokale Anbieter in der Regel schnell an ihre Grenzen.

Bei einem (zu) grossen Provider geht man schnell unter in der Masse der Kunden. Und bei einem zu kleinen Provider, findet letztendlich gar kein «richtiges» Outsourcing statt und der Provider wird viel mehr wie die interne IT-Abteilung behandelt, die nun halt in einer anderen Firma ist.

Tipps:

  • Internationale Provider nur einsetzen falls die Leistungen auch international erbracht werden müssen.
  • Möglichst kleine Provider berücksichtigen, die zudem gut zur eigenen Firmenkultur passen.
  • Zu kleine Provider bieten jedoch auch wieder Gefahren. Sie sollten möglichst bereits über Kunden verfügen, die grösser oder mindestens gleich gross sind.
  • Falls der Kunde zum grössten Kunden des Providers wird, besteht die Gefahr, dass sich der Provider zu stark auf den Kunden ausrichtet und faktisch zur internen IT wird.
  • Die Firmenkultur des Providers muss möglichst gut zur Kultur des Kunden passen. Dies ist einer der wichtigsten Faktoren bei der Wahl des Providers.

Fazit: Dort, wo die Art und Kultur des Providers gut zur eigenen Firmenkultur passt, sind in der Regel auch die Chancen gross, dass das Outsourcing erfolgreich wird. Einstein hat einmal gesagt: «So einfach wie möglich, aber nicht einfacher». Analog verhält es sich mit der Provider-Wahl: So klein wie möglich, aber nicht zu klein.


Profitiert Outsourcing von Skaleneffekten?

Outsourcing-Mythen

Den folgenden Mythos hören wir immer wieder: «Der Outsourcing-Provider hat viel grössere Mengen als die interne IT und erreicht durch die damit entstehenden Skaleneffekte viel tiefere Kosten».

Stimmt das wirklich? Werfen wir einen Blick auf die Daten von über 150 durchgeführten Benchmarks, die wir seit Bestehen unserer Firma durchgeführt haben. Die untenstehende Grafik zeigt auf der x-Achse die Anzahl Benutzer und auf der y-Achse die Kosten pro Benutzer im Monat für den Workplace (PC-Arbeitsplatz inkl. Service Desk, Onsite Support, Endgeräte, Server, LAN, E-Mail und MS-Office-Lizenzen inkl. SW-Verteilung):

Kosten pro Benutzer im Monat in Abhängigkeit der Anzahl Benutzer 

Entgegen der Erwartung der meisten Leute fallen die Skaleneffekt nur sehr schwach aus und hören bei rund 3 000 PC wieder auf. Kleinere IT-Abteilungen mit nur 200 - 300 PC haben einen Nachteil, indem sie schlechtere Einkaufskonditionen haben und auch ihre zentralen Infrastrukturen schlechter auslasten können (z.B. weniger Benutzer pro Mail- oder File-Server). Sie lösen Vieles aber auch wesentlich pragmatischer und einfacher wie grössere IT-Abteilungen, die alle Systeme redundant und häufig auch viel komplexer auslegen (müssen).

Dass man auch als kleine IT tiefe Kosten pro PC-Arbeitsplatz erreichen kann, zeigen die Werte links unten in der Grafik. Und dass auch grosse Unternehmen hohe Kosten haben können, zeigen die Punkte oben rechts in der Grafik. Grösse ist also noch lange kein Garant für tiefe Kosten und klein sein heisst nicht automatisch, dass alles teurer sein muss.

Bis knapp 3 000 PC-Arbeitsplätze sinken die Kosten pro Arbeitsplatz leicht, um dann wieder etwas anzusteigen. Dies rührt daher, dass grössere IT-Umgebungen praktisch immer hoch redundant und häufig auch entsprechend komplex und damit teuer aufgebaut sind und entsprechende Betriebskosten verursachen.

Auch wenn ein Outsourcing-Provider mehrere Zehntausend oder sogar mehrere Millionen von PC-Arbeitsplätzen betreibt, zeigt die obige Kurve, dass die Kosten nicht mehr weiter sinken.

Skaleneffekte werden zudem häufig zerstört, indem der Kunden nicht zu 100% die Standardlösung des Providers einsetzen kann resp. will und mit seinen zusätzlichen Anforderungen verhindert, dass Skaleneffekte entstehen resp. genutzt werden können. Skaleneffekte können nur genutzt werden, wenn die Standardlösung des Providers zu 100% verwendet wird und jede Abweichung von der Standardlösung des Providers verhindert Skaleneffekte.

Fazit: Die Skaleneffekte fallen üblicherweise wesentlich geringer aus als angenommen. Zudem werden sie häufig zerstört, indem nicht auf die Standardlösungen der Provider gesetzt wird, sondern Anforderungen gestellt werden, die eigene Lösungen erfordern und damit die Skaleneffekt teilweise oder sogar ganz zunichte machen. Falls man von den Skaleneffekten eines Outsourcing-Providers profitieren will, dann sollte man sich auch nach den Standards des Providers richten und nicht alles bis ins Detail selbst vorgeben. Als Nebeneffekt steigt üblicherweise auch die Qualität, da jede Lösung, die vom Standard des Providers abweicht, in der Regel auch komplizierter zu betreiben ist und damit für mehr Fehler sorgt.


Lohnt sich Outsourcing?

JA, aber richtig!

Ohne entsprechende Unterstützung von externen Partnern ist es heute einer Informatik Abteilung kaum mehr möglich, mit den sich stetig verändernden Anforderungen aus dem Kerngeschäft Schritt zu halten.

"Warum dann nicht gleich die ganze Informatik externalisieren?", wird sich die eine oder andere Geschäftsleitung auch schon gefragt haben. Worauf es dabei aus Sicht Provider bei einem derartigen Schritt ankommt und welche Punkte dabei von grosser Wichtigkeit sind, führe ich als Gast-Autor in diesem KPI of the month gerne aus.

Mit über 15 Jahren Erfahrung in unterschiedlich ausgestalteten Outsourcing Verträgen wissen wir eines ganz sicher: Outsourcing bedeutet einen klaren Mehrwert, aber nur wenn dies auch richtig angegangen, vertraglich klar geregelt und partnerschaftlich gelebt wird.

Mit der Lancierung der Ausschreibung kommt die Anfrage für das gewünschte Outsourcing oftmals zu einem Service Provider. Anhand eines mehr oder weniger umfassenden Anforderungskataloges versucht sich dann der Service Provider in die Situation des Kunden zu versetzen. Um aber die Unternehmenskultur und die Eigenheiten dieses potentiellen Neukunden zu erfassen, reicht dies oft nicht aus. Das Angebot des Service Providers basiert somit auf Interpretationen und Annahmen. Mit der Gewichtung der Zuschlagskriterien wird zudem oftmals das Preis- / Leistungsverhältnis ins Zentrum gestellt. Alle Softfaktoren, welche für eine partnerschaftliche Zusammenarbeit von grosser Bedeutung sind, werden selten beleuchtet und am Ende entsprechend bewertet. Eine Informationsveranstaltung im Vorfeld der Ausschreibung könnte für beide Seiten wichtige Erkenntnisse liefern und grundlegende Fragen zur Kultur und Zusammenarbeit klären.

Kommt der Zuschlag für den Service Provider zu Stande, ist die Freude über den Erfolg sehr gross. In einem umfangreichen Vertragswerk wird dann der ausgeschriebene Leistungsumfang bestmöglich festgehalten. Der Art und Weise der gewünschten Zusammenarbeit und den Bedürfnissen des Neukunden hinsichtlich zukünftiger Innovationen wird dabei in den meisten Fällen kaum Beachtung geschenkt. So entsteht ein gegenseitig verbindliches Dokument, welches den Zielzustand festhält und die gleichbleibenden Leistungen für die Vertragslaufzeit von mehreren Jahren sicherstellt. Zu diesem Zeitpunkt wäre es ratsam, sich am Tisch zu treffen, um sich näher kennen zu lernen. Nebst den vertraglich zu vereinbarenden Service Level Agreements könnten zu diesem Zeitpunkt auch die für den Kunden wichtigen Softfaktoren abgestimmt werden. Denn eine erfolgreiche Zusammenarbeit zwischen Kunde und Service Provider begründet sich in der Regel auf Klarheit und gegenseitiges Vertrauen.

In der Transformationsphase lernt der Service Provider die unternehmensspezifischen Eigenheiten seines Neukunden kennen. Wenngleich die Ziellösung im Anforderungskatalog sauber formuliert war und in der Fragerunde etwaige offene Punkte geklärt werden konnten, Bedarf es in dieser Projektphase im Normalfall weiterer Abklärungen. Diese führen oftmals zu einer Anpassung des Leistungsumfanges, welcher sich nachhaltig auswirkt. Dem sollten sich beide Seiten im Klaren sein und aufgrund dessen konstruktiv nach vertretbaren Lösungen suchen, welche im Interesse beider Vertragspartner sind. In dieser heiklen Phase zeigt sich erneut, ob die beiden Unternehmen in Bezug auf deren Kultur gut zusammen passen oder sich bereits zu diesem Zeitpunkt Probleme ergeben, welche sich langfristig auf die Kundenbeziehung auswirken werden. Beide Seiten können in dieser Phase das Fundament für eine partnerschaftliche Zusammenarbeit positiv beeinflussen.

Mit dem Abschluss des Projektes und dem Übergang in den Betrieb starten die Mitarbeitenden des Kunden flächendeckend mit der Nutzung der neuen Informatik Services. Dieser Phase ist die entsprechende Aufmerksamkeit frühzeitig zu schenken, da sich nur durch eine passgenaue Schulung und Begleitung des Go-Life ein nahtloser Übergang in die neue Informatik Ära bewerkstelligen lässt. Parallel zur Abarbeitung der offenen Restanzen aus der Transformationsphase startet das Etablieren der vereinbarten Governance. Nur wenn diese auf allen Ebenen gelebt wird, kann sich der Service Provider in die Bedürfnisse des Kunden hinein versetzen und auf dieser Basis während der Vertragslaufzeit innovative Vorschläge für den Kunden bieten.

Ein Outsourcing von Informatik Services lohnt sich auf jeden Fall, aber nur wenn dieses auch richtig angegangen wird.

Ralph Jordi
Bereichsleiter Sales & Marketing
HINT AG


Mehr Innovation durch Outsourcing?

Outsourcing-Mythen

Immer wieder ist zu hören, dass Kunden von den innovativen Lösungen eines Outsourcers profitieren wollen. Aber sind die Outsourcer wirklich so innovativ?

Outsourcer sind durch den Kostendruck gezwungen, eine möglichst hohe Automatisierung zu erreichen. Keine Bestellungen per Mail, sondern möglichst alles über ein Portal abwickeln. Dies fördert automatisierte Lösungen, die bei einer interne IT teilweise fehlen oder viel rudimentärer umgesetzt sind. Auch viele andere Prozesse wie Softwareverteilung, die Installation und Auslieferung von PC usw. sind häufig viel besser automatisiert bei einem Outsourcing-Anbieter.

Auch kann ein externer Anbieter Lösungen für seine grosse Kundenbasis bauen, für die eine interne (kleinere) IT gar nie die Mittel, Zeit und Kraft hätte. Hier lohnt es sich also zu schauen, wo und wie man von einem externen Anbieter profitieren kann.

Wenn der Outsourcing-Vertrag jedoch unterzeichnet und die Lösung aufgebaut und in Betrieb ist, ändern sich die Zielsetzungen das Outsourcers grundlegend:

Der Outsourcing-Provider steht unter einem starken Kostendruck und wird daher alles tun, um seine eigenen Kosten tief zu halten. D.h., er wird die eingesetzte Lösung möglichst lange im Einsatz belassen und nicht Geld für innovative Lösungen einsetzen. Die Mitarbeitenden des Providers sind nicht auf Innovation ausgerichtet, sondern darauf, die vereinbarten SLA zu möglichst tiefen Kosten einzuhalten.

 

Tipps

  • Innovative Lösungen müssen im Rahmen der Ausschreibung gefordert (und entsprechend bewertet) werden.
  • Sobald die Lösung gebaut ist und der Vertrag läuft, wird die Lösung kaum noch verändert (ausser über kostenpflichtige Change Requests). Die nächste Innovationsphase ist daher in der Regel erst wieder wenn der Vertrag erneuert wird.

Fazit: Outsourcing fördert in der Regel konservative und nicht innovative Lösungen. Ausser bei der (Neu-) Ausschreibung. Daher muss in dieser Phase darauf geachtet werden, dass Innovation stattfindet. Danach findet in der Regel bis zum Ablauf des Vertrages nicht mehr viel Innovation statt.


Outsourcing ist günstiger. Oder etwa doch nicht?

Outsourcing-Mythen

Vor längerer Zeit haben wir einen grossen Kunden bei einem Outsourcing der gesamte IT begleitet. Im Vorfeld haben sich verschiedene Anbieter präsentiert. Auf die Kosten angesprochen, hat einer der Anbieter gemeint, dass die Kosten um 20% sinken, wenn wir ihn als Outsourcing-Partner wählen würden.

Das hat von mir die folgende Frage provoziert: «Wie hoch sind denn heute die Kosten der IT, die ausgelagert werden soll?». Die Antwort kam postwendend: «Das wissen wir leider nicht».

Sie kannten zwar die IT-Kosten nicht, haben aber gewusst, dass diese dank Outsourcing um 20% gesenkt werden können… So ist der Mythos entstanden, dass Outsourcing günstiger ist.

Schauen wir uns die generellen Kostenblöcke an:

Kostenblöcke beim Outsourcing 

Der Outsourcer hat prinzipiell genau die gleichen Kostenblöcke wie eine interne IT. Dazu kommen aber noch sein Overhead (Verkauf, Administration usw.) und sein Profit (er will resp. muss ja letztendlich Geld mit seinen Kunden verdienen).

Auf Kundenseite kommen die Aufwände für die Führung des Outsourcers dazu. Unsere Faustregel ist, dass 5-10% der Personalkapazität, die zum Outsourcer wechselt, für das Provider Management nötig ist.

Wenn wir diese Kostenblöcke zusammenfassen, sieht der Kostenvergleich wie folgt aus:

Zusatzkosten bei Outsourcing 

Neu dazugekommen ist der Block «Abschreibungen Transitionsprojekt». Dieses wird auf die Vertragsdauer (in der Regel 5 Jahre) abgeschrieben und muss in die Kostenbetrachtung einbezogen werden.

Eine grobe Kostenabschätzung ergibt damit die folgenden Kostenblöcke, die bei einem Outsourcing entstehen und die bei einer internen IT nicht anfallen:
• Profit (Marge) das Outsourcers: 10%
• Führung des Outsourcers: 5%
• Abschreibungen Transitionsprojekt: 5%

Macht zusammen rund 20%, die der Outsourcer günstiger sein muss, als die interne IT.

Das ist aber noch nicht alles: Zu Beginn eines Outsourcing-Projektes frage ich jeweils den CFO, wie hoch die Einsparungen dank Outsourcing ausfallen müssen. Spontan werden jeweils rund 20% genannt, teilweise auch 30%. Das würde dann bedeuten, dass der Outsourcer insgesamt zu 40%-50% tieferen Kosten produzieren muss, als die interne IT.

Nachdem ich dies jeweils dem CFO klar gemacht habe, antwortet dieser dann häufig „aber mindestens 10% müssen es sein“. Das ist auch verständlich, bedeutet aber, dass der Provider 30% günstiger produzieren muss wie die interne IT.

Alles kein Problem, wenn wir die Leistungen aus einem Tieflohnland beziehen… Die Personalkosten machen in der Regel rund 50% aus. Die anderen 50% sind Hardware und Software (wo der Lizenzgeber der SW ein Outsourcing gestattet). Hard- und Software kosten auf der ganzen Welt ungefähr gleich viel. Das heisst, dass die Einsparungen von insgesamt 30% komplett auf die Personalkosten abgewälzt werden müssen und diese damit gerade noch 40% der Personalkosten der internen IT betragen dürfen: Wenn die gesamten IT-Kosten CHF 100 betragen, dann sind CHF 50 Personalkosten der internen IT – CHF 30 (30%) Einsparungen = CHF 20 für die Personalkosten des Outsourcers und damit noch 40% der ursprünglichen Personalkosten von CHF 50.

Sollen anstatt 10% nun 20% durch Outsourcing eingespart werden, so dürfen die Personalkosten des Outsourcers nur noch 20% der ursprünglichen Personalkosten ausmachen. Diese einfachen Überlegungen zeigen, dass Outsourcing nur (noch) in den seltensten Fällen wirklich günstiger sein kann wie eine interne IT.

Wieso dann aber überhaupt outsourcen?

Es gibt einige gute Gründe für ein Outsourcing. Z.B., dass die interne IT gar nicht fähig ist, gewisse Leistungen in der gleichen Professionalität und Qualität wie ein darauf spezialisiertes Unternehmen zu erbringen. Betrachten wir ein SOC (Security Operations Center): für eine kleinere und auch für eine mittlere oder sogar grössere IT ist es kaum möglich, ein wirklich professionelles SOC aufzubauen und auch noch zu betreiben. Nicht nur während der Bürozeiten, sondern 24/7.

Für solche Fälle ist Outsourcing geradezu prädestiniert. Selbst falls ein Outsourcing teurer zu stehen kommen sollte, ist es in der Regel gar nicht möglich, solche Leistungen in der gleichen Qualität und Professionalität selber aufzubauen und zu erbringen.

Seit einiger Zeit sehen wir eher eine zurückhaltende Haltung zu Outsourcing und wir haben auch schon das eine oder andere Insourcing-Projekt begleitet. In spezifischen Fällen kann Outsourcing aber sehr viel Sinn machen.


And the award goes to…. HSG

IT der Universität St.Gallen mit der zweithöchsten Anwenderzufriedenheit

Bei über 150 Umfragen zur Erhebung der Anwenderzufriedenheit bei 34 Firmen mit insgesamt weit über 300 000 Benutzern ist es nicht einfach, unter die Top 3 zu kommen.

Umso beeindruckender ist es, dass die Informatik der Universität St.Gallen (HSG) in der Gesamtzufriedenheit den zweiten Rang erreicht hat!

Award HSG 

Dass diese ausgezeichnete Leistung nicht nur dem IT-Leiter Hary Rotter, sondern dem ganzen IT-Team zu verdanken ist, dürfte einleuchten. Nur wenn alle IT-Mitarbeitenden am gleichen Strang ziehen, kann ein Spitzenresultat erreicht werden!

Im Bild unten ist daher stellvertretende für alle IT-Mitarbeitenden das Service Desk Team mit dem Award abgebildet, das ebenfalls sehr gut abgeschlossen hat:

Service Desk Team 

An die Spitze zu kommen ist anspruchsvoll. Das hervorragende Resultat halten oder sogar noch verbessern zu können, ist hingegen noch anspruchsvoller und bedingt laufende Optimierungen und eine hohe Kundenorientierung.

Wir wünschen daher dem IT-Team der HSG weiterhin viel Erfolg bei der kontinuierlichen Verbesserung ihrer Leistungen!


Optimale Besetzung des Service Desks

Simulationsmodell für Service Desk und Onsite Support

Durch eine Erhöhung der Service Desk Agenten von 1.8 FTE (Full Time Equivalent) auf 2.5 war es möglich, die Lösungsrate des Service Desks zu steigern und dadurch die Ressourcen im Onsite Support zu reduzieren. Damit konnten die gesamten Supportkosten bei gleichbleibender resp. sogar noch gesteigerter Servicequalität gesenkt werden. Der Grund dafür ist, dass eine Anfrage im Service Desk für CHF 30 gelöst wird, aber ein Fall im Onsite Support CHF 200 kostet.

Diese erfolgreiche Strategie wollen wir weiter verfolgen und die Agenten im Service Desk auf 3.0 FTE ausbauen.


Simulationsmodell Service Desk

 

Wir erwartet steigt die Servicequalität und damit auch die Lösungsrate nochmals an, so dass die Ressourcen im Onsite Support von 1.8 FTE auf 0.9 FTE reduziert werden können, ohne Einbussen bei der Servicequalität:

Simulationsmodell Onsite Support

 

Die gesamten Supportkosten von Service Desk und Onsite Support sind nun auf nur noch CHF 36.50 pro Benutzer im Monat gesunken. Hier nochmals die Zusammenfassung unserer Simulationsresultate:

KPI of the month 10/2019: CHF 47.50 bei guter Servicequalität
KPI of the month 11/2019: CHF 59.90 bei schlechter Servicequalität im Service Desk
KPI of the month 12/2019: CHF 40.90 bei sehr guter Servicequalität
KPI of the month 01/2020: CHF 36.50 bei sehr guter Servicequalität

Das heisst, dass wir mit 3.0 FTE im Service Desk und 0.9 FTE im Onsite Support nicht nur eine sehr hohe Serviccequalität, sondern mit CHF 36.50 pro Benutzer im Monat auch die tiefsten Kosten all unserer Simulations-Szenarien erreicht haben! Dies zeigt sehr schön auf, dass es sich lohnt, in das Service Desk zu investieren, um damit die nachgelagerten Supportkosten zu minimieren. Gleichzeitig steigt dadurch die Servicequalität und die Anwenderzufreidenheit an!

In unserem letzten Szenario erhöhen wir die Anzahl der Service Desk Agenten weiter um eine halbe Stelle auf 3.5 FTE:

Simulationsmodell Service Desk

Bereits im vorherigen Szenario mit 3.0 FTE haben wir eine Lösungsrate von 90% erreicht. Diese ist enorm hoch und lässt sich kaum noch weiter steigern, da für einen gewissen Anteil der Fälle ein Einsatz vor Ort unabdingbar ist (z.B. für die Auslieferung oder Austausch eines PC). Damit steigen nur noch die Kosten im Service Desk an ohne dass die Kosten im Onsite Support gesenkt werden können. D.h. dass eine Ressourcierung mit 3.5 FTE im Service Desk nichts mehr bringt und nur noch die Kosten hoch treibt.

Sie denken, dass eine Lösungsrate von 90% im Service Desk unmöglich ist? Wir haben einmal ein internationales Unternehmen gebenchmarkt, das die ganze IT in der Schweiz zentralisiert hat und im Ausland über mehrere Duzend Niederlassungen verfügt, die z.T. nur wenige Mitarbeitende aufweisen. Das Unternehmen hat daher keinen Onsite Support und verfolgt die Strategie, möglichst alle Probleme am Service Desk zu lösen. Zusammen mit einer Citrix-Strategie können damit praktisch alle Fälle zentral gelöst werden. Im Service Desk sind entsprechend qualifizierte Mitarbeitende, die zusammen mit der hohen Ressourcierung auch entsprechende Kosten verursachen. Da aber praktisch komplett auf den Onsite Support verzichtet werden kann, fallen die gesamten Supportkosten trotzdem sehr tief aus.


Optimierung der Supportqualität

Simulationsmodell für Service Desk und Onsite Support

Im KPI of the month 11/2019 haben wir in unserem Simulationsmodell für Service Desk und Onsite Support die Service Desk Agenten von optimalen 1.8 FTE (Full Time Equivalent) auf 1.3 gesenkt. Wenig verwunderlich konnten die Kosten damit zwar gesenkt werden, die Servicequallität (verlorene Anrufe, Wartezeit, Lösungsrate, Anwenderzufriedenheit usw.) ist allerdings auch spürbar zurück gegangen.

In diesem KPI of the month probieren wir die gegenteilige Strategie und erhöhen die FTE im Service Desk von 1.8 auf 2.5 (die 2.5 Agenten sind willkürlich gewählt). Damit verfügt das Service Desk über mehr Ressourcen als eigentlich benötigt würden und es entsteht eine traumhaft gute Servicequalität:


Simulationsmodell Service Desk

 

Im Onsite Support haben wir die personelle Ressourcierung auf 3.1 FTE wie in der Ausgangslage belassen. Dies ergibt die folgende Situation:

Simulationsmodell Onsite Support

 

Hier entstehe damit ebenfalls eine traumhaft gute Servicequalität: Durch die stärkere personellel Ressourcierung des Service Desk ist die Lösungsrate von 66% auf 80% gestiegen. Damit fallen deutlich weniger Fälle für den Onsite Support an, so dass dieser nun ebenfalls deutlich überressourciert ist.

Das Resultat ist zwar eine sehr gute Servicequalität, allerdings zu hohen Kosten. Diese sind von CHF 47.50 pro Benutzer im Monat auf CHF 53.90 gestiegen.

Wir können daher im Onsite Support die Anzahl der Mitarbeitenden so anpassen, dass die Serviceparameter gerade noch grün sind. Dies ist mit 1.8 FTE (anstatt 3.1) der Fall:

Simulationsmodell Onsite Support

In diesem Szenario mit 2.5 FTE im Service Desk und 1.8 FTE im Onsite Support wird nicht nur eine sehr gute Servicequalität erzielt, sondern es konnten auch die Kosten von CHF 47.50 pro Benutzer im Monat auf CHF 40.90 gesenkt werden!

Damit scheint uns mit tiefen Kosten bei gleichzeitig hoher Servicequalität die Quadratur des Kreises gelungen zu sein. Wie ist das möglich? Eine Anfrage im Service Desk kostet rund CHF 30 während ein Fall im Onsite Support rund CHF 200 kostet. Durch die höhere Lösungsrate im Service Desk konnten daher mehr Fälle zu tieferen Kosten gelöst und damit die gesamten Supportkosten gesenkt werden.

Ob diese Strategie durch eine weitere Erhöhung der Service Desk Agenten weiter ausgebaut werden kann, sehen wir dann im nächsten KPI of the month.


Kostensenkung im Service Desk

Simulationsmodell für Service Desk und Onsite Support

Im KPI of the month 10/2019 haben wir unser Simulationsmodell für Service Desk und Onsite Support vorgestellt und gesehen, dass bei 1 000 Benutzern optimalerweise 1.8 FTE (Full Time Equivalent) im Service Desk und 3.1 FTE im Onsite Support nötig sind, um eine entsprechend hohe Qualität (wenig verlorene Anrufe, kurze Wartezeit, hohe Lösungsrate, hohe Anwenderzufriedenheit usw.) zu erreichen.

Nun kann man einwenden, dass mit den obigen Parametern zwar eine hohe Servicequalität erreicht wird, aber dadurch auch hohe Kosten entstehen. Schauen wir also, was geschieht, wenn die personellen Ressourcen (und damit die Kosten) reduziert werden.

In einem ersten Schritt werden die Agenten im Service Desk abgebaut, und zwar soweit, dass die Serviceparameter anstatt grün nur noch gelb sind. Eine weitere Verschlechterung, so dass die Parameter rot werden, wollen wir nicht hinnehmen. Die Grenze, bevor der erste Parameter rot wird, liegt bei 1.3 FTE im Service Desk. D.h. wir reduzieren die Agenten um eine halbe Person von 1.8 auf 1.3 FTE. Damit sinken die Kosten von CHF 16.50 pro Benutzer im Monat auf 11.90.

Das sieht dann wie folgt aus:


Simulationsmodell Service Desk

Im Onsite Support belassen wir die personelle Ressourcierung auf 3.1 FTE wie in der Ausgangslage. Dies ergibt die folgende Situation:

Die Reaktionszeit steigt deutlich an (von 1.8h auf 6.1h) und die Anwenderzufreidenheit sinkt von 8 auf 4.9 ab.
Wieso ist das so? Durch die Reduktion der Service Desk Agenten ist die Lösungsrate des Service Desks von 66% auf 47% gesunken. Damit werden mehr Fälle an den Onsite (und 2nd Level) Support weiter gegeben, der damit überlastet ist.

Die Gesamtkosten sind damit von ehemals CHF 47.50 pro Benutzer im Monat auf CHF 42.90 gesunken. Allerdings zum Preis einer deutlich schlechteren Servicequalität.

Schauen wir uns noch ein leicht anderes Szenario an: Wir lassen die reduziert Personalkapazität im Service Desk wie im vorherigen Fall, aber stellen die Anforderung auf, dass die Servicequalität im Onsite Support nach wie vor im grünen Bereich liegen muss. Damit müssen die Mitarbeiten im Onsite Support von 3.1 FTE auf 4.8 FTE aufgestockt werden:

Simulationsmodell Onsite Support

Nun sind die Serviceparameter im Onsite Support zwar wieder alle im grünen Bereich (im Service Desk nach wie vor gelb, da dort 0.5 FTE fehlen), aber die Kosten sind auf insgesamt CHF 59.90 gestiegen (wegen dem Ausbau im Onsite Support).

Dieses zweite Szenario ist daher völlig ungeeignet, da es bei schlechterer Servicequalität im Service Desk im Vergleich zum Ursprungsszenario höhere Kosten erzielt (CHF 59.90 versus CHF 47.50).
Das Szenario mit gelben Parametern im Service Desk und Onsite Support erzeugt zwar tiefere Kosten (CHF 42.90 versus CHF 59.90), die Servicequalität ist allerdings deutlich schlechter.

Dies ist ein schlechter Kompromiss und im nächsten KPI of the month zeigen wir ein Szenario auf, wie mit geringeren Kosten trotzdem eine hohe Servicequalität erreicht werden kann.


Kostenoptimierung im Support

Simulationsmodell für Service Desk und Onsite Support

Inzwischen haben wir über 150 Benchmarks bei rund 90 Firmen durchgeführt (einige Firmen haben wir mehrmals gebenchmarkt) und aus den Daten ein Simulations-Modell für den Service Desk sowie den Onsite Support erstellt.

Das Simulationsmodell für das Service Desk sieht wie folgt aus:


Simulationsmodell Service Desk

Durch Eingabe der Anzahl Benutzer sowie der Anzahl Agenten im Service Desk werden die folgenden Parameter auf Grund unserer Benchmarking-Werte berechnet:

  • Verlorene Calls: Anrufe, die vom Service Desk nicht entgegen genommen werden konnten, da den Anwendern die Wartezeit zu lange wurde und diese wieder aufgehängt haben.
  • Wartezeit: Wartezeit in Sekunden, bis ein Anruf entgegen genommen wird.
  • Lösungsrate: Anteil der Anfragen an das Service Desk, die durch das Service Desk selbst gelöst werden können und nicht an eine andere Supportstelle weiter gegeben werden müssen.
  • Anwenderzufriedenheit: Kalkulierte Anwenderzufriedenheit auf einer Skala von 1 bis 10.
  • Kosten: Kosten pro Benutzer im Monat in CHF

Die weiteren Parameter wie Servicezeiten, Ausbildung der Agenten, Mehrsprachigkeit usw. werden in unseren Betrachtungen nicht weiter verwendet.

Bei 1 000 Benutzern werden 1.8 Agenten im Service Desk benötigt, um die obigen Resultate zu erzielen. Die 1.8 Agenten wurden so gewählt, da dann alle Parameter im grünen Bereich liegen. Mit nur 1.7 Agenten würden die verlorenen Calls auf 11% steigen, was aus unserer Erfahrung ungenügend ist und daher gelb dargestellt würde.

Für den Onsite Support existiert eine analoge Simulation:

Simulationsmodell Onsite Support

Hier werden 3.1 Supporter benötigt, damit sowohl die Reaktionszeit als auch kalkulierte Anwenderzufriedenheit im grünen Bereich liegen.

1.8 FTE (Full Time Equivalent) im Service Desk und 3.1 FTE im Onsite Support entsprechen der minimalen Ressourcierung, damit sämtliche Parameter in der Simulation im grünen Bereich liegen. Damit entstehen Supportkosten von CHF 16.50 im Service Desk und CHF 31.00 im Onsite Support. Insgesamt also CHF 47.50 pro Benutzer im Monat.

In den folgenden KPI of the month verändern wir dann die personelle Besetzung im Service Desk und Onsite Support und beobachten die Auswirkungen auf die Parameter wie Lösungsrate, Wartezeit, Anwenderzufriedenheit usw. sowie natürlich auf die Kosten.


Kontinuierliche Senkung der Kosten im Onsite Support

Kostenentwicklung im Onsite Support

Von 2002 bis 2005 sind die Kosten im Onsite Support sehr stark gesunken. Danach flacht die Kurve deutlich ab, weist aber bis ins Jahr 2016 immer noch eine klare Tendenz nach unten auf. Danach stagnieren die Kosten oder steigen sogar wieder leicht an.

Entwicklung der Kosten pro Benutzer im Monat für den Onsite Support über die Zeit

Zur Senkung der Supportkosten tragen einerseits die gute Lösungsrate des Service Desks, aber vor allem ebenfalls die immer höhere Standardisierung und das bessere Management der PC-Clients bei. Zudem können heute viel mehr Probleme mit Remotezugriff gelöst werden, die vor zehn oder mehr Jahren noch einen Einsatz vor Ort nötig gemacht haben.

Umgebungen mit Thin- oder Zero-Clients tragen weiter zu sehr tiefen Supportkosten bei. Da solche Umgebungen jedoch nur bei wenigen der untersuchten Kunden im Einsatz sind, wird dieser Effekt in den Benchmarking-Werten kaum sichtbar. Umgebungen mit Thin-/Zero-Clients erreichen üblicherweise nochmals tiefere Kosten im Onsite Support, die jedoch bei den Serverkosten fast immer mehr als kompensiert werden.

Der Anstieg im Jahr 2018 aus über einem Duzend Benchmarks lässt vermuten, dass das Kostenpotenzial im Onsite Support ausgeschöpft ist und kaum weitere Kostensenkungen zu erwarten sind.


Keine echten Kostenreduktionen im Service Desk

Kostenentwicklung im Service Desk

Gleich wie in den übrigen Gebieten, sind die Kosten nach 2002 deutlich gesunken. Interessanterweise beim Service Desk nur bis zum Jahr 2005. Danach waren sie rund fünf Jahre konstant, um danach wieder auf das ursprüngliche Niveau von 2002 anzusteigen. Ab 2015 fallen sie dann wieder deutlich tiefer aus und liegen ungefähr wieder auf dem Niveau von 2005 bis 2010.

 

Entwicklung der Kosten pro Benutzer im Monat für das Service Desk über die Zeit

Woran liegt es, dass die Service Desk Kosten zuerst sinken, um dann wieder zu steigen und anschliessend wieder zu sinken?

Je nach Auslegung des Service Desks (Call Center mit niedriger Lösungsrate oder Service Desk mit hoher Lösungsrate und entsprechend höheren Kosten) fallen die Kosten tiefer oder höher aus. Wie wir im KPI of the month 02/2016 gesehen haben, lohnt es sich, ein Service Desk mit einer hohen Lösungsrate und damit entsprechend höheren Kosten zu betreiben:

  1. Geringe Kosten: Während die Lösung eines Calls im Service Desk CHF 30 kostet, steigen die Kosten auf CHF 200 wenn ein Incident durch den Onsite Support gelöst wird.
  2. Zufriedene Benutzer: Die Benutzer schätzen es, wenn ihnen gleich am Telefon geholfen werden kann und sie nicht an eine andere Supportstelle weitergeleitet werden müssen.
  3. Zufriedene Mitarbeitende: Als Service Desk Mitarbeitende ist es wesentlich interessanter, möglichst viele Fälle selber lösen zu können als nur gerade Telefonzentrale zu spielen und ein Ticket im Service Management Tool aufzumachen. Dies äussert sich in einer deutlich geringeren Fluktuationsrate.

In der obigen Kostenkurve wird daher vor allem der Typ Service Desk abgebildet, den wir im entsprechenden Jahr vorwiegend gebenchmarkt haben. Da die Kosten des Service Desks praktisch ausschliesslich aus Personalkosten bestehen und die Aufgaben nicht geringer wurden, konnten die Kosten über die Zeit auch nicht gesenkt werden.

Und eine Auslagerung in ein Billiglohnland? Nur unter der Voraussetzung, dass die Lösungsrate und die Anwenderzufriedenheit gehalten werden können!

Wenn nämlich die Lösungsrate dadurch sinkt, steigen die Kosten an, da nun mehr Fälle im Onsite und 2nd Level Support gelöst werden müssen. Die Kosten im Service Desk sind nun zwar geringer, aber insgesamt steigen sie an.

Zudem macht das Service Desk vielleicht 3% der gesamten IT-Kosten aus. Mit einer Auslagerung in ein Billiglohnland lassen sich die gesamten IT-Kosten damit kaum spürbar senken. Die Anwenderzufriedenheit hingegen schon…

Da das Service Desk das Image der IT ganz wesentlich prägt, werden mit rund 3% der IT-Kosten geschätzte 80% des Images der IT beeinflusst.


Kostenanstieg wegen W-LAN

Kostenentwicklung von LAN / W-LAN

Bis zum Jahr 2014 sind die Kosten für LAN / W-LAN mehr oder weniger kontinuierlich auf rund noch einen Viertel gesunken. Dies ist eine enorme Reduktion der Kosten, die darauf zurück zu führen ist, dass das Arbeitsplatz-LAN immer mehr Commodity geworden ist und die Netzwerkgeräte (Switches) immer mehr Ports zu günstigeren Preisen aufweisen.

Interessanterweise steigen die Kosten ab 2015 wieder leicht an. Dies ist vor allem darauf zurück zu führen, dass viele Firmen W-LAN eingeführt haben.


Entwicklung der Kosten pro Benutzer im Monat für das Gebiet LAN / W-LAN über die Zeit

Wir gehen davon aus, dass die bereits sehr tiefen Kosten höchstens noch leicht sinken werden. Grosse Reduktionen sind aber kaum zu erwarten.

Übrigens: In den obigen Kosten sind nur die Personal- und Sachkosten für das Endgeräte-LAN resp. W-LAN enthalten. Die Kosten für das Datacenter-LAN zum Anschluss der Server sowie des WAN zur Verbindung der verschiedenen Lokationen sind nicht Bestandteil der obigen Kosten.


Kostenanstieg beim Client Software Management erwartet

Kostenentwicklung von Client Software Management

Beim Client Software Management (Engineering des Clients sowie Paketierung und Verteilung der Software inkl. Lizenzen für Windows, Office, Virenscanner usw.) konnten die Kosten seit 2002 beinahe halbiert werden. Allerdings sind sie seit dem Jahr 2008 tendenziell wieder etwas gestiegen, wobei die Schwankungen primär auf statistische Schwankungen zurück zu führen sind. Die tiefen Kosten im 2014 gehen darauf zurück, dass in diesem Jahr mehrere Non-Profit-Organisationen mit sehr guten Konditionen der Lizenzen gebenchmarkt wurden.

 

Entwicklung der Kosten pro Benutzer im Monat für das Gebiet Client Software Management über die Zeit

In der Vergangenheit haben einige wenige Firmen kein Enterprise Agreement EA (oder Software Assurance SA) mit Microsoft abgeschlossen. Die Lizenzen wurden vielmehr gekauft und dann möglichst lange eingesetzt. Die meisten Firmen lassen eh (mindestens) eine Version von MS-Office aus und konnten so spürbar ihre Client-Lizenzkosten senken.

Microsoft hat dies jedoch bereits vor längere Zeit erkannt und verlangt nun für den Einsatz gewisser Software ein EA/SA. Und mit den sich immer stärker verbreitenden Mietmodellen von Software (Office 365) entfällt der obige Trick mit dem Kauf der Lizenzen ohne Wartung ganz und die Lizenzkosten steigen tendenziell wieder an.

Die Kosten für das Client Software Management bestehen rund zur Hälfte aus den Lizenzkosten für die Basis-Software wie MS-Windows, MS-Office, Virenscanner usw. Die andere Hälfte besteht aus Personalkosten für das Engineering des Clients sowie für die Paketierung und Verteilung der Client-Software. Dabei hat sich das Verhältnis von Benutzern pro Client Software Betreuer nur leicht von etwas unter 1 000 auf leicht über 1 000 Benutzern pro Spezialist erhöht.

Entwicklung der Anzahl Benutzer pro Client Software Betreuer über die Zeit

Dass die Gesamtkosten für das Gebiet Client Software Management im Jahr 2018 trotzdem höher sind wie in den vergangenen Jahren, dürfte vor allem an Office 365 liegen. Immer mehr Firmen wechseln auf Office 365 und erhalten damit zusätzliche Funktionalitäten wie z.B. SharePoint. Durch das Mietmodell steigen jedoch auch die Kosten an, was zu insgesamt höheren Kosten führt.


E-Mail: Praktisch gleiche Kosten seit 2009

Kostenentwicklung von E-Mail

Von 2002 bis 2009 haben sich die Kosten für E-Mail mehr als halbiert.

Seit 2009 sind sie weitestgehend konstant und die Schwankungen sind primär auf statistische Schwankungen zurück zu führen. Damit scheint das Kostenpotenzial von E-Mal mehr oder weniger ausgeschöpft zu sein.

Wir gehen davon aus, dass mit Office 365 immer mehr Firmen ihre E-Mail-Infrastruktur in die Cloud von Microsoft verlagern. Die Kosten dürften dadurch jedoch nicht mehr stark sinken, da diese in den vergangenen Jahren bereits optimiert wurden.

 

Entwicklung der Kosten pro Benutzer im Monat für das Gebiet Mail über die Zeit

Ein wesentlicher Grund für die Senkungen der Mailkosten ist die laufende Verbesserung des Verhältnisses der von einem Mailbetreuer betreuten Benutzer. Kamen im Jahr 2002 noch rund 1 000 Benutzer auf einen Mailbetreuer, ist das Verhältnis inzwischen auf rund 5 000 bis 6 000 Benutzer pro Mailbetreuer gestiegen. Die Werte schwanken dabei erstaunlich stark, weisen aber eine klare Tendenz auf.

Entwicklung der Anzahl Benutzer pro Mailbetreuer für das Gebiet Mail über die Zeit


Kostenanstieg wegen SharePoint und Skype for Business

Kostenentwicklung der Server

Bei den Servern sind sehr starke Kostensenkungen zwischen 2002 und 2009 zu beobachten. Dies ist primär auf die in dieser Zeit stattgefundenen Virtualisierung zurück zu führen. Die Server selbst (Hardware) sind sicher ebenfalls günstiger geworden, der Hauptanteil dürfte aber auf die Virtualisierung zurück zu führen zu sein.

Ab 2010 haben alle untersuchten Firmen weitestgehend auf virtuelle Server migriert und die Kosten bleiben mehr oder weniger konstant resp. sinken nur noch leicht

 

Entwicklung der Kosten pro Benutzer im Monat für das Gebiet Server über die Zeit

Ab 2018 ist wieder eine Zunahme der Sever-Kosten zu beobachten: Während die einzelnen virtuellen Server zwar tendenziell günstiger werden, steigt deren Anzahl z.T. wieder stark an, so dass die gesamten Kosten ebenfalls ansteigen. Dank Virtualisierung können neue (virtuelle) Server sehr schnell und einfach erzeugt werden, was dazu führt, dass die Anzahl der virtuellen Server in vielen Firmen, die wir gebenchmarkt haben, angestiegen sind. Damit sind natürlich auch die Kosten angestiegen.

Vielfach geht die höhere Anzahl Server auf neue Systeme wie Skype for Business oder SharePoint zurück. So dass nicht nur die Anzahl Server und damit die Kosten, sondern ebenfalls die Möglichkeiten und Funktionalität angestiegen sind.

Ob der Kostenanstieg im Jahr 2018 nur eine vorübergehende Erscheinung oder eine generelle Tendenz ist, können wir dann Ende 2019 sagen. Die ersten Benchmarks in diesem Jahr sind bereits abgeschlossen und einige weitere in Planung.


Stark gesunkene Endgerätekosten bei gleicher Nutzungsdauer

Kostenentwicklung der Endgeräte

Seit wir im Jahr 2002 mit unseren Benchmarks begonnen haben, sind die Endgerätekosten (Desktops, Notebooks, ThinClients, Drucker, Multifunktionsgeräte) pro Benutzer im Monat rund um den Faktor drei gesunken. Dies geht primär auf tiefere Beschaffungspreise, aber auch auf die geringeren Preisunterschiede zwischen Business- und Consumer-Modellen zurück.

War früher der Preisunterschied noch recht gross, unterscheiden sich heute die Business- und Consumer-Modellen bezüglich Ausstattung und Preis nur noch geringfügig. Der Hauptunterschied liegt vor allem darin, dass bei den Business-Modellen die Hardware und damit die Treiber weniger schnell wechseln und über einen längere Zeitraum unverändert eingesetzt werden können.

Übrigens: Zusätzlich zu den Hardwarekosten trägt auch die PC-Dichte wesentlich zu den Kosten bei. Da die Kosten pro Benutzer im Monat ausgewiesen werden (und nicht pro PC im Monat), weisen Firmen, die über mehr als einen PC pro Benutzer verfügen, höhere Kosten auf.


Entwicklung der Kosten pro Benutzer im Monat für das Gebiet Endgerät über die Zeit

Wie schon bei den Gesamtkosten (siehe letzter KPI of the month) haben die grössten Kostenreduktionen zwischen 2002 und 2009 stattgefunden. Seit 2010 sind die Kosten weniger stark gesunken und so wird auch damit gerechnet, dass die Kosten für die Endgeräte in Zukunft höchstens noch marginal sinken.

Ein weiterer wichtiger Kostenfaktor ist die Nutzungsdauer:

Entwicklung der Kosten pro Benutzer im Monat für das Gebiet Endgerät über die Zeit

Bei Notebooks beträgt die Nutzungsdauer rund 4 Jahre und bei Desktops knapp 5 Jahre. Sie schwankt zwar (statistisch) über die Jahre, bleibt aber weitestgehend konstant. Die Nutzungsdauer hat dabei den grösseren Einfluss als die Beschaffungskosten. Gelingt es, die Nutzungsdauer von 4 auf 5 Jahre zu verlängern, macht dies 20% aus.


Die Kosten für den Workplace sinken seit 2014 nicht weiter

Kostenentwicklung Workplace

Seit der Gründung der axeba im Jahr 2002 haben wir beinahe 90 Unternehmen mit insgesamt über 350 000 PC untersucht. Verschiedene Firmen haben wir mehrmals gebenchmarkt, so dass bis heute über 170 Benchmarks zusammen gekommen sind. Diese Werte haben wir ausgewertet und wollen sie in diesem und den kommenden KPI of the month vorstellen und genauer analysieren.

Wir beginnen mit den Gesamtkosten pro EWP (Electronic Workplace). Darin sind die folgenden Gebiete enthalten: Service Desk, Onsite Support, Power/Key-User (falls vorhanden), Endgeräte, File-/Print-/Infrastruktur-Server, LAN, E-Mail sowie SW-Verteilung inkl. Basis-Lizenzen. Was die einzelnen Gebiete jeweils beinhalten und wie sich die Kosten entwickelt haben, erläutern wir dann bei der Analyse der jeweiligen Gebiete in den folgenden KPI of the month.

Die Gesamtkosten für den Workplace sind zwischen 2002 und 2013 praktisch kontinuierlich gesunken (mit einer «Pause» zwischen 2009 und 2012). Die wichtigsten Gründe dafür sind: Preiszerfall der Hardware, Virtualisierung der Server, höhere Standardisierung und damit weniger Onsite Supporter, günstigere Netzwerkkomponenten, Skaleneffekte bei E-Mail usw.


Entwicklung der Kosten pro Benutzer im Monat für den Workplace über die Zeit

Seit 2014 sind die Kosten ungefähr gleich geblieben und im Jahr 2018 sogar wieder leicht gestiegen. Dies kann aber auch nur eine statistische Schwankung sein.

Anhand der stabilen Kosten in den vergangenen fünf Jahren wird davon ausgegangen, dass die Gesamtkosten für den Workplace nicht oder höchsten noch marginal sinken. Die Streuung unter den einzelnen Unternehmen ist jedoch erstaunlich gross und die günstigsten Firmen liegen leicht unter CHF 100 pro Benutzer im Monat. Das heisst, es ist durchaus möglich, die obigen Durchschnittskosten deutlich zu unterbieten.


Projekt-KPI

IT-Projekte

Natürlich können die Projekt-KPI nicht das Projektreporting ersetzen. Nach wie vor sollen monatlich alle Projekte mit ihrem Status bezüglich Kosten, Terminen (Projektfortschritt) und je nachdem noch Qualität und Risikobeurteilung im Projektportfolio ausgewiesen werden.

Die Projekt-KPI sollen helfen, schnell einen Überblick über den Stand aller Projekte zu erhalten und wo nötig, weitere Details aus dem Projektportfolio resp. direkt aus dem Projektreporting der einzelnen Projekte einzusehen. Die Idee der KPI ist die folgende: Solange alle KPI auf grün sind, müssen keine weiteren Details angeschaut werden. Resp. dort, wo KPI nicht grün sind, muss in weitere Details verzweigt werden.

Der zentralste KPI ist sicher der KPI «Kosteneinhaltung, Termineinhaltung, Fortschritt pro Projekt (Projektcontrolling)». Eigentlich ist dies nicht ein einzelner KPI, sondern mehrere: Wie viele Projekte halten die Kosten ein, wie viele Projekte halten die Termine ein und wie viele Projekte halten den vorgegebenen Projektfortschritt (Projektplan) ein, was in der Regel mit der Termineinhaltung (Meilensteine) identisch ist.

Dazu kommen KPI zum Projektportfolio wie Anzahl neue Projekte im aktuellen Monat, Anzahl laufende Projekte sowie Anzahl abgeschlossene Projekte.

Zum Projektmanagement und Projektportfoliomanagement gibt es regalweise Bücher. Auf diese wollen wir nicht eingehen. Viel mehr wollen wir mit einigen wenigen KPI darstellen, ob die Projekte auf Kurs sind resp. wo sich eine vertiefte Analyse lohnt.

In der obigen Tabelle ist wie gewohnt dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Alle KPI der Projektperspektive sind sowohl für die das IT-Management-Team als auch für den CIO relevant.

CIO: Siehe IT-Mgmt.

Kunden: Den IT-Kunden (resp. Auftraggebern) wird in der Regel der aktuelle Projektstand «ihrer» Projekt kommuniziert.

CEO: Aus der Sicht des CEO resp. der Geschäftsleitung ist die Kosteneinhaltung sowie das gesamte Projektportfolio (Risikomanagement) relevant.

 

Viele (sowie einige weitere) der obigen KPI sind bereits in KPI as a Service vordefiniert und können einfach aufgeschaltet werden:


Potenzialperspektive – HR

IT-Mitarbeitende

Ohne gut ausgebildete und erfahrene IT-Spezialisten geht nichts. Deshalb lohnt es sich, die IT-Mitarbeitenden entsprechend weiter zu bilden und die dazugehörigen KPI im Auge zu behalten:

Einer der wichtigsten KPI ist die Mitarbeiter-Fluktuation. Ein stabiler IT-Betrieb lebt von erfahrenen IT-Mitarbeitenden. Falls die Fluktuationsrate zu hoch ist, geht entsprechendes Know-how verloren und sowohl der Betrieb und Support der IT-Systeme als auch die Realisierung von Projekten wird dadurch gefährdet.

Aber auch die Anzahl der offenen Stellen sollte nicht zu hoch ausfallen, damit die zugesprochene Personalkapazität auch wirklich zur Verfügung steht.

Dazu kommen die KPI im Bereich der Skills und Ausbildung: Mitarbeiterskill-Level und Anzahl Ausbildungstage pro IT-Mitarbeiter. Last but not Least soll mit dem MbO Erreichungsgrad die Zielerreichung gemessen werden (MbO = Management by Objective = Führung mit Zielen).

In der obigen Tabelle ist wie gewohnt dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Alle KPI der Potenzialperspektive sind sowohl für die direkten IT-Führungskräfte (IT-Mgmt) als auch für den CIO relevant.

CIO: Siehe IT-Mgmt.

Kunden: Den IT-Kunden werden in der Regel keine KPI bezüglich der Potenzialperspektive kommuniziert.

CEO: Aus der Sicht des CEO resp. der Geschäftsleitung sind der MbO Erreichungsgrad sowie – falls kritisch – die Fluktuationsrate relevant.


Immer mehr Notebooks

Rund ein Drittel sind Notebooks

Gefühlt haben die mobilen Geräte wie Notebooks in den letzten Jahren stark zugenommen und wir haben sogar eine Firma gebenchmarkt, die alle Desktops durch Notebooks ersetzt hat.

Effektiv sieht die Entwicklung der Notebooks über die letzten 15 Jahre wesentlich konservativer aus als man denken könnte:

Anteil der Notebooks an allen Endgeräten (Notebooks, Desktops, Thin Clients) über die Zeit

Waren in den Jahren 2004 bis 2009 noch knapp 20% der Endgeräte Notebooks, ist dieser Anteil im 2010 sprunghaft auf über 25% und anschliessend bis 2018 kontinuierlich auf rund 35% angestiegen. Damit hat sich der Anteil der Notebooks in den letzten 15 Jahren ungefähr verdoppelt, macht aber immer noch nur rund die Hälfte der stationären Geräte aus (35% Notebooks / 65% Desktops und Thin Clients).

Die Schwankungen in der obigen Grafik rühren daher, dass wir pro Jahr zwischen einem halben und einem ganzen Duzend Benchmarks durchführen und so gewisse statistische Schwankungen auftreten.

Auch wenn der Trend zu mobilen Geräten sicher noch weiter gehen wird, machen Desktops durchaus nach wie vor Sinn. Es wird immer Jobs geben, die stationär sind wie z.B. die Eingabe und Verarbeitung von Rechnungen, Call Center, allgemeine Büroarbeiten usw. Hier machen Desktops klar mehr Sinn, da diese in der Regel schneller und günstiger sind und zudem auch länger eingesetzt werden können (Desktops werden durchschnittlich rund 5 Jahre und Notebooks rund 4 Jahre eingesetzt).


Prozessperspektive - Capacity Management

Capacity Management

Capacity Management wird in vielen IT-Organisationen vernachlässigt. Oder wer überwacht schon regelmässig und systematisch, die Auslastung des Storage, der CPU, des Memories usw.? Sie schon? Umso besser!
Hier kommen die KPI für den Capacity Management Prozess:

Einer der wichtigste KPI des Capacity Management Prozesses ist sicher die Speicherplatzauslastung. Meistens ändert sich diese ja nicht täglich in hohem Masse, sondern steigt mehr oder weniger kontinuierlich über die Zeit an. Damit lässt sich einfach und frühzeitig erkennen, wann das Storage-System ausgebaut oder erneuert werden muss. Umso schlimmer, wenn niemand die Entwicklung des Speicherplatzes verfolgt und dann plötzlich und überraschend der Storage ausgebaut resp. erneuert werden muss.

Neben der Auslastung der technischen Kenngrössen gibt es aber noch eine ganz andere «Ressource», deren Aus- resp. Überlastung genau verfolgt werden sollte: Die IT-Spezialisten. Wie stark sind diese mit Projekten ausgelastet? Wie viel Aufwände werden für den Betrieb benötigt? Wie viel Überzeit und Ferien haben sich angesammelt?

Auch hier gilt einmal mehr, dass nicht alle, sondern nur die für die Firma resp. IT relevanten KPI implementiert werden sollen.

In der obigen Tabelle ist ebenfalls dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Am besten werden die Auslastungszahlen mindestens monatlich im IT-Management vorgestellt und besprochen. Jeder Bereich der IT sollte zudem seine eigenen Auslastungszahlen bestens kennen und aktiv monitoren.

CIO: Bei einer kleineren IT kennt der CIO üblicherweise die Auslastung der verschiedenen Systeme und Ressourcen selbst (sollte er mindestens). Bei einer grösseren IT sollte er mindestens die Auslastung der IT-Spezialisten kennen.

Kunden: Den IT-Kunden werden in der Regel keine KPI bezüglich der Auslastung kommuniziert.

CEO: Das Gleiche gilt für den CEO resp. für die Geschäftsleitung. Hier können die Entwicklung der Auslastung der IT-Spezialisten jedoch helfen, die aktuelle Situation dar zu legen oder, um zusätzliche Stellen zu beantragen.

 

Übrigens: Viele KPI aus dem Kapazitätsmanagement sind bereits vordefiniert und in KPI as a Service (KaaS) enthalten:

Weitere Informationen zu KPI as a Services gibt es hier: www.axeba.ch/de/services/it-management/kaas.html 


Prozessperspektive

Change Management

Während in einer kleinen IT-Organisation mit einer Handvoll IT-Spezialisten dem Change Management Prozess kaum eine Bedeutung zukommt, wird Change Management in grossen IT-Organisationen mit mehreren Duzend oder sogar über 100 Mitarbeitenden zu einem der zentralsten IT-Prozesse.

Bei den folgenden KPI konzentrieren wir uns dabei nicht auf denjenigen Teil des Change Management Prozesses, bei dem die IT-Kunden neue Anforderungen an die IT richten (Change Requests), sondern auf denjenigen Teil, bei dem die Changes in die produktiven IT-Systeme überführt werden (technisches Change Management):

Interessant ist hier nicht zuletzt der KPI «Anzahl durchgeführte Changes». Dieser sieht sehr trivial aus (was er auch ist), aber anhand der durchgeführten Changes lässt sich die Stabilität der IT-Systeme voraussagen. Steigen die Changes an, so steigt parallel dazu das Risiko, dass durch die Changes Instabilitäten entstehen und zudem das Service Desk durch vermehrte Anrufe belastet wird.

Analog sind die urgent Changes ein weiterer guter Indikator. Diese sollte normalerweise null oder nahe bei null sein. Steigen diese plötzlich an, so ist dies, weil entweder die Systeme instabil sind oder weil die Planungsdisziplin schlecht ist und noch viele Changes in letzter Minute eingeführt werden müssen. Dass dies der Stabilität der Systeme nicht zuträglich ist, ist ziemlich offensichtlich.

Wie schon bei den anderen Prozess-KPI gilt auch hier, dass nicht alle, sondern nur die für die Firma resp. IT relevanten KPI implementiert werden sollen.

In der obigen Tabelle ist ebenfalls dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Ausnahmen im Change Management Prozess wie z.B. Urgent Changes, Changes ohne Bewilligung, Changes mit Folgefehlern oder notwendige Fallbacks sollten regelmässig in den Führungssitzungen der IT thematisiert werden.

CIO: Bei einer kleineren IT ist der CIO üblicherweise selbst im Change Management involviert. Bei einer grösseren IT sollte er mindestens die Anzahl der durchgeführten Changes und die Changes mit Folgefehlern kennen.

Kunden: Die Kunden werden in der Regel nicht in das (technische) Change Management einbezogen und informiert. Dies gilt natürlich nicht für die vorgelagerte Phase der neuen Anforderungen von Kunden, die über Changes erfasst und realisiert werden.

CEO: Das Change Management der IT ist für den CEO resp. die GL der Firma in der Regel nicht relevant. Ausser es sind deswegen grössere Probleme aufgetreten oder es konnten mit einem (oder mehreren) Change bestehende Probleme gelöst werden.


KPI as a Service (KaaS)

4 Jahre KPI of the month

Im August 2014 haben wir unseren ersten KPI of the month verschickt und auf unserer Website publiziert. Seit genau vier Jahren erstellen, publizieren und versenden wir also schon jeden Monat einen KPI of the month. Irgendwann werden uns die KPI ausgehen, habe ich schon nach ein paar Monaten gedacht. Aber wir haben immer wieder eine interessante Kennzahl in unserem Fundus gefunden, die wir publizieren können.

Bei so vielen KPI stellt sich natürlich die Frage, wie diese denn überhaupt dargestellt werden können. Wir haben deshalb eine massgeschneiderte Lösung dafür entwickeln lassen: KPI as a Service oder kurz KaaS.

Es gibt viele mächtige Tools für die Darstellung von KPI, aber wir haben keines gefunden, das bereits vordefinierte KPI für die IT mitliefert und bei dem man in wenigen Stunden ein Cockpit mit allen relevanten KPI zusammen gestellt hat. Deshalb haben wir ein eigenes Tool für die Darstellung von KPI entwickeln lassen und unsere über 200 vordefinierten KPI schon mal in diesem Tool hinterlegt. So kann man einfach diejenigen KPI zusammenstellen, die für die eigene IT relevant sind und auch noch weitere KPI ergänzen.

Bei denjenigen KPI, bei denen wir über Benchmarking-Werte verfügen, haben wir diese natürlich gleich hinterlegt. Zudem wird jeweils der Durchschnittswerte aller Teilnehmer, die mit unserem Tool arbeiten, dargestellt.
Die KPI können hierarchisch gegliedert werden und die oberste Stufe präsentiert sich so:

Klickt man auf einen Ordner, öffnet sich dieser und die darin enthaltenen KPI werden angezeigt. Hier am Beispiel Service Desk und Support: 

Und wenn man auf einen einzelnen KPI klickt, dann wird dessen zeitlicher Verlauf dargestellt inkl. Benchmark-Vergleich:

 

Mehr Infos gibt es hier: www.axeba.ch/de/services/it-management/kaas.html

Oder einfach ein e-Mail an info (at) axeba.ch senden


Prozessperspektive

Problem Management

Problem Management wird z.T. immer noch mit Incident Management verwechselt. Während es beim Incident Management darum geht, Störungen möglichst rasch zu beheben (nötigenfalls auch durch einen Workaround), geht es beim Problem Management darum, (zum Teil schon lange) vorhandene Problem nachhaltig zu lösen, so dass sie nicht mehr auftreten.

Die relevanten KPI bezüglich Incident Management können im KPI of the month 08/2017 nachgelesen werden.
Hier folgen die relevanten KPI für das Problem Management.

Interessant sind nicht zuletzt die beiden KPI «Anzahl offener Probleme» und das «Durchschnittliche Alter der offenen Probleme». Dazu kommt die Risikobeurteilung der Probleme, die nicht einfach in einem KPI, sondern üblicherweise in einer Matrix dargestellt wird:

 

 

Wie schon bei den anderen Prozess-KPI gilt auch hier, dass nicht alle, sondern nur die für die Firma resp. IT relevanten KPI implementiert werden sollen.

In der ersten Grafik resp. Tabelle ist ebenfalls dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Die offenen Problems sollten regelmässig in den Führungssitzungen der IT thematisiert und priorisiert werden. Es sollte ein aktives Risiko Management betrieben werden, so dass die Prioritäten entsprechend auf die kritischen Probleme gelegt werden können.

CIO: Siehe oben (IT-Mgmt).

Kunden: Je nach System resp. Applikation sollten die relevanten Probleme den IT-Kunden kommuniziert und mit diesen besprochen werden.

CEO: Das Problem Management der IT ist für den CEO resp. die GL der Firma in der Regel nicht relevant. Sehr wohl jedoch für den Risk Manager der Firma.


Grosses Skalenpotenzial bei technischen Servern

Skalierung der technischen Server

In diesem KPI of the month betrachten wir die technischen Server wie Printserver, Server für DHCP, DNS, RAS (Remote Access), Directory (AD, NDS, ...), Timeserver, SW-Verteilung, Outbound Proxy usw. Das heisst diejenigen Server, die für den Betrieb der IT-Infrastruktur benötigt werden, aber keine Server für den Betrieb von Applikationen oder ähnlichem.

Die folgende Grafik zeigt die Anzahl Benutzer pro technischem Server (y-Achse) in Abhängigkeit zur Anzahl Benutzer (x-Achse):

 

Während kleine Unternehmen mit weniger als 500 Benutzern rund 20 Benutzer pro Server aufweisen, kommen grössere Unternehmen mit 4 000 Benutzern und mehr auf 80 und mehr Benutzer pro Server. Dies ist einleuchtend, da gewisse Funktionen (DHCP, DNS, Domain Controller usw.) in jeder IT-Infrastruktur vorhanden sein müssen, egal ob gross oder klein. Bei einer grösseren Anzahl Benutzer resultiert dann natürlich ein besseres Verhältnis von Benutzern zu Servern (Skaleneffekte).

Interessant sind allerdings die grossen Streuungen: Es gibt Unternehmen mit knapp 4 000 Benutzern, die hohe Werte von 170 Benutzern pro Server erreichen, aber auch solche, die bei 4 000 Benutzern nur knapp über 20 Benutzer pro Server erreichen.

In der nachfolgenden Darstellung sind auf der y-Achse die Anzahl der technischen Server und auf der x-Achse wiederum die Anzahl der Benutzer dargestellt:

 

Bis rund 3 000 Benutzer steigt die Kurve an, d.h. mit zunehmender Anzahl Benutzer nimmt auch die Anzahl der technischen Server zu (allerdings nicht 1:1 wie wir bei der ersten Grafik gesehen haben). Ab rund 3 000 Benutzern bleibt die Kurve dann praktisch konstant. Das heisst, dass hier weitere Benutzer bedient werden können, ohne dass die technischen Server ausgebaut werden müssten. Damit skaliert dieses Gebiet sehr gut!

Dies steht im Gegensatz zu den Skaleneffekten für den gesamten Workplace. Im KPI of the month 9/2017 haben wir gesehen, dass beim gesamten Workplace ab rund 3 000 Benutzer keine Skaleneffekte mehr auftreten.


Sind Thin-Clients wirklich günstiger?

Schneiden Thin-Clients wirklich günstiger ab als Fat-Clients?

Es wird immer wieder behauptet, dass Thin- (Desktop-Virtualisierung mit einem schlanken Client für die Ein-/Ausgabe) oder Zero-Clients (noch einfacherer Client ohne lokalem Speicher) wesentlich günstiger sind als die herkömmlichen Fat-Clients (konventionelle Desktops und Notebooks mit Harddisk, Speicher und CPU).

Die Analyse in einem Kundenprojekt hat das folgende Bild ergeben:


Im Vergleich der jährlichen Kosten schneidet zwar die Hardware des Thin-/Zero-Clients traumhaft günstig ab. Dafür kommen hier Kosten für Server/Storage sowie für die VDI-Lizenzen dazu, so dass Thin-/Zero-Clients hier insgesamt teurer zu stehen kommen wie die klassischen Desktops und sogar auch Notebooks.

Nicht berücksichtigt im obigen Vergleich sind die Supportkosten. Diese fallen bei einem Thin-/Zero-Client naturgemäss günstiger aus, da kaum noch Einsätze vor Ort nötig sind auch ein Thin-/Zero-Client üblicherweise auch erst viel später wie ein Fat-Client ersetzt wird. Unter Einbezug der Supportkosten fällt in diesem Beispiel ein Thin-/Zero-Client also insgesamt leicht günstiger aus als ein Fat-Client.

Beim Einsatz von Thin-/Zero-Clients ist allerdings zu berücksichtigen, dass diese nicht mobil betrieben werden können (keine «Notebooks») und dass die Komplexität und damit die Anforderungen an die Server-Spezialisten deutlich höher sind als bei einer klassischen Fat-Client Infrastruktur.


69% aller PC werden pro Jahr „in die Hand genommen“

69% aller PC werden pro Jahr verschoben, installiert oder deinstalliert

Der Onsite Support führt pro Jahr 13 Umzüge pro 100 PC-Arbeitsplätze durch. Das heisst, dass 13% aller PC-Arbeitsplätze jedes Jahr umgezogen werden.

Dazu kommen 39 Installationen sowie 17 Deinstallationen pro 100 PC-Arbeitsplätze.

Insgesamt werden also in einem Jahr 69% aller PC (13 Umzüge + 39 Installationen + 17 Deinstallationen pro 100 PC) «in die Hände genommen». Dabei sind die Supportfälle noch gar nicht eingerechnet.

Bei der Betrachtung dieser Zahlen wird klar, wieso viele Unternehmen über Thin- oder Zero-Clients nachdenken. Wenn die Endgeräte praktisch nicht mehr in die Hand genommen werden müssen, lassen sich die Supportkosten drastisch senken.

Dass die Gesamtkosten bei Thin-/Zero-Client-Architekturen leider häufig trotzdem höher ausfallen, werden wir im nächsten KPI of the month sehen.


Anteil PC, die pro Jahr verschoben, installiert oder deinstalliert werde


Teurer Support am Hauptsitz

Wieso der Support von dezentraler Lokationen günstiger ist als von zentralen Lokationen

 

Pro Benutzer kostet der Onsite Support CHF 33 pro Monat. Dabei wird nicht unterschieden, ob sich ein Benutzer am Hauptsitz befindet und der Supporter nur gerade ein paar Minuten benötigt, um an den Arbeitsplatz eines Benutzers zu gelangen, oder ob sich der Benutzer in einer entfernten Lokation befindet, die nur mit dem Auto erreicht werden kann.

Praktisch alle Leute argumentieren, dass der Support von entfernten Lokationen teurer ist als der Support von Lokationen, die zu Fuss erreicht werden können. Tönt eigentlich logisch, ist es aber nicht:

Wir haben die monatlichen Kosten pro Benutzer für zentrale Standorte (Hauptsitz) und dezentrale Standorte (Agenturen/Aussenstandorte) mit folgendem Resultat untersucht: Während an den zentralen Standorten CHF 40 pro Benutzer im Monat anfallen, betragen die Kosten in den Agenturen nur CHF 30.

Wie lässt sich dieser (scheinbare) Widerspruch erklären? Faktisch besteht an den zentralen Standorten ein anderes (implizites) SLA und die Benutzer erwarten, dass der Onsite Support nach wenigen Minuten oder höchsten nach ein bis zwei Stunden vorbeischaut. An den dezentralen Standorten ist den Benutzern aber in der Regel klar, dass der Supporter erst nach Stunden oder evt. auch erst am nächsten Tag vorbei kommt.

Zudem befinden sich am Hauptsitz alle zentralen Funktionen (und damit ein breites Spektrum von Applikationen und Anforderungen) der Firma, die fast immer mehr Supporteinsätze erfordern als die Geschäftstätigkeiten in den Agenturen.


Kosten pro Benutzer im Monat in CHF für den Onsite Support


CHF 266 pro Supporteinsatz

Rund 8x höhere Kosten wie im Service Desk

 

Ein Einsatz durch den Onsite Support kostet im Schnitt CHF 266. Verglichen mit den CHF 32, die eine Anfrage an das Service Desk kostet, sind dies rund achtmal so hohe Kosten.

Dabei muss berücksichtigt werden, dass das Service Desk die einfacheren Fälle selber löst und die schwierigeren Incidents an den Onsite Support (oder andere Supportstellen) weiter gibt. Damit steigt die Komplexität und damit der Zeitaufwand für die nachgelagerten Supportstellen. Zudem muss der Onsite Support zuerst an den Arbeitsplatz des Benutzers, was entsprechende Zeit benötigt.

Je nach Branche liegen die Kosten pro Onsite Einsatz auch tiefer als der Datenbankdurchschnitt:

Verwaltungen: CHF 212 pro Einsatz
Industrie: CHF 176 pro Einsatz

Dies ändert aber nichts am Bild, dass die Incidents am günstigsten im Service Desk gelöst werden und dass alles daran gesetzt werden muss, um eine möglichst hohe Lösungsrate im Service Desk zu erreichen.

PS: Die Kosten pro Onsite Supporteinsatz werden berechnet, indem die Kosten des Onsite Supportes (Personalkosten inkl. Sozialleistungen) durch die Anzahl Einsätze des Onsite Supportes dividiert werden.


Kosten pro Onsite Support Einsatz in CHF 


And the award goes to…. Stadt Chur

Stadt Chur mit der höchsten Anwenderzufriedenheit

Kurz nach der Gründung der axeba haben wir im Jahr 2003 mit der Erhebung der Anwenderzufriedenheit begonnen. In den vergangenen 14 Jahren haben wir bei über 30 Firmen und öffentlichen Verwaltungen rund 150 Umfragen zur Erhebung der Anwenderzufriedenheit durchgeführt und dabei über 300 000 Benutzer zu ihrer Zufriedenheit befragt.

Ende 2017 haben wir beschlossen, die jeweils besten Firmen und Verwaltungen mit einem Award für deren Anwenderzufriedenheit auszuzeichnen. Prompt wurde der bestehende Bestwert von 150 Umfragen durch die Informatik der Stadt Chur geknackt, die damit den Rang 1 belegt.

 

 

Die Informatik der Stadt Chur zeichnet sich dabei durch eine hohe Konstanz und wenige Wechsel aus: So ist das IT-Management und auch viele Mitarbeitende bereits seit langer Zeit in einer stabilen Konstellation tätig und pflegen den Kontakt zu ihren IT-Kunden und insgesamt rund 2 000 Benutzern regelmässig und intensiv. Die IT-Lösungen weisen einen guten Mix aus modern und bewährt auf.

Dazu kommt eine gute und auf die Anwender ausgerichtete Kommunikation sowie der kürzliche Wechsel auf neue und damit leistungsfähige Endgeräte samt entsprechender Schulung.

Und last but not least: Bei der Überreichung des Awards war natürlich Freude und Stolz spürbar. Im nächsten Moment ging es aber bereits wieder darum, welche Punkte noch zu wenig gut sind und wie diese verbessert werden können. Das ständige Suchen nach weiteren Optimierungsmöglichkeiten ist wohl der wichtigste Faktor für gute Leistungen und eine hohe Anwenderzufriedenheit.

Zusammen mit dem besten Gesamtergebnis hat die Stadt Chur auch gleich noch den 3. Rang im Gebiet Kommunikation erreicht. Vor dem Hintergrund der Stadt Chur mit den Bündner Bergen sieht dies dann so aus:

 

Übrigens: Dass eine hohe Anwenderzufriedenheit nicht automatisch hohe Kosten bedeuten muss, hat ein gleichzeitig durchgeführter Benchmark aufgezeigt, bei dem die Stadt Chur ebenfalls sehr gut abgeschlossen hat.


CHF 32 pro Anfrage an das Service Desk

Höhere Lösungsraten bedingen höhere Kosten pro Anfrage

 

Im Durchschnitt kostet eine Anfrage an das Service Desk CHF 32. Interessanterweise schwanken die Kosten kaum unter den verschiedenen Branchen. Vielmehr sind die Kosten pro Anfrage abhängig von der Lösungsrate. Ein Service Desk mit einer sehr geringen Lösungsrate (weniger als 40%) benötigt für die «Lösung» (resp. halt eben Weiterleitung einer Anfrage) deutlich weniger Zeit als ein Service Desk mit einer hohen Lösungsrate (>70%).

Je höher die Lösungsrate, desto mehr Zeit wird pro Fall benötigt und desto höher fallen die Kosten pro Anfrage aus. Solange die Lösungsrate hoch ist, können daher auch die Kosten pro Anfrage hoch sein. Kritisch wird es erst, wenn die Lösungsrate tief und die Kosten hoch sind. Dann besteht klarer Handlungsbedarf.

Dass sich eine hohe Lösungsrate und die damit verbundenen höherem Kosten aber in jedem Fall lohnen, sehen wir im nächsten KPI of the month. Dann untersuchen wir, was es kostet, ein Problem im Onsite Support vor Ort zu lösen.

PS: Die Kosten pro Anfrage werden berechnet, indem die Kosten des Service Desks (Personalkosten inkl. Sozialleistungen sowie jährliche Kosten für das Ticket System) durch die Anzahl Anfragen an das Service Desk dividiert werden.

Kosten pro Anfrage in CHF

 


Skaliert SAP besser als der Workplace?

Skaleneffekte bei SAP

Das Resultat der SAP-Analyse weicht nur unwesentlich vom Resultat des PC-Arbeitsplatzes ab.

Die Auswertung unserer Benchmarking-Datenbank für SAP-Installationen ergibt folgendes Bild: Auf der x-Achse sind die Anzahl Benutzer aufgetragen und auf der y-Achse die Kosten pro Benutzer im Monat.


Bei der Anzahl Benutzer ist zu berücksichtigen, dass diese je nach Einsatzgebiet gewichtet wurden: So zählt z.B. ein Benutzer, der nur gerade CATS verwendet nur als Bruchteil eines Benutzers, der den ganzen Tag mit SAP arbeitet. Effektiv arbeiten daher in den jeweiligen Firmen deutlich mehr User mit SAP als die in der obigen Grafik ausgewiesenen Benutzer.

Auch bei SAP finden wir ein ähnliches Bild wie beim Electronic Workplace und die Skaleneffekte hören bei ca. 2 000 (gewichteten) Benutzern auf. Was aber auffällt ist, dass kleine SAP-Installationen deutlich teurer sind als grosse SAP-Installationen: Eine SAP-Installation mit rund 200 (gewichteten) Benutzern kostet zwischen CHF 8 000 und 10 000 pro Benutzer im Jahr. Umfasst die SAP-Installation über 1 000 Benutzer, sinken die Kosten auf rund CHF 2 000 bis 4 000. Hier fallen die Unterschiede also deutlich grösser aus wie beim Electronic Workplace, bei dem die Unterschiede zwischen kleinen und grossen Installationen wesentlich geringer ausfallen.

Übrigens: Nicht dargestellt in der obigen Grafik ist eine sehr kleine SAP-Installation mit Kosten von über CHF 20 000 pro Benutzer. Ebenfalls nicht dargestellt ist eine sehr grosse SAP-Installation mit mehreren Tausend Benutzern, die aber keine tieferen Kosten erreicht wie die Installationen mit ca. 2 000 Benutzern.


Skaleneffekte versus Komplexitätskosten

Wieso die Komplexitätskosten die Skaleneffekte wieder wettmachen (können)

Bei Skaleneffekten (Economy of Scale) denkt man an die folgende Kurve:

Der Stückpreis sinkt mit steigender Menge, da die Fixkosten auf immer mehr Einheiten aufgeteilt werden können. Dies stimmt für industriell herstellbare Produkte, aber stimmt dies auch für IT-Leistungen?

Häufig wird vergessen, dass in der IT (wo es nicht nur um einfache Schrauben oder Bleistifte geht) mit steigender Grösse («Menge») auch die Komplexität ansteigt:

Ein ERP-System für eine grosse Firma ist wesentlich komplexer als dasjenige einer kleinen Firma. Was in einer kleinen Firma noch mit Excel erledigt werden kann, benötigt ab einer gewissen Firmengrösse ein professionelles ERP-System wie z.B. SAP.

Während die IT-Infrastruktur sehr einfach aufgebaut sein kann (wie zu Hause), weist die IT-Infrastruktur einer grossen Firma eine wesentlich höhere Redundanz und Komplexität auf.

Deshalb werden die IT-Systeme einer grösseren Firma nicht automatisch günstiger pro Benutzer als diejenige einer kleinen Firma.

Separiert man die Skaleneffekte und die Komplexitätskosten, so kommt man zur folgenden Darstellung:

Je grösser die Firma («Menge») desto mehr kann sie von Skaleneffekten profitieren (grüne Kurve). Desto mehr kämpft sie aber auch mit Komplexitätskosten (rote Kurve).

Die Erfahrung in der Praxis zeigt denn auch, dass es häufig weniger darum geht, Skaleneffekte zu erzielen, sondern vielmehr darum, Komplexität zu vermeiden. Oder wie in der untenstehenden Grafik ersichtlich (gelbe Fläche), das Skalenpotenzial möglichst gut auszuschöpfen. Dies bedingt eine gewisse Grösse, aber auch den nötigen Pragmatismus, damit die Komplexitätskosten nicht die Skaleneffekte wieder kompensieren und so grosse Firmen bezüglich Kosten sogar einen Nachteil haben gegenüber kleineren Firmen.

Und wie sieht es in Ihrer Firma aus? Überwiegen die Skaleneffekte oder die Komplexitätskosten?


Skaleneffekte: Mythos oder Realität?

Skaleneffekte beim Electronic Workplace

Die Auswertung unserer Benchmarking-Datenbank ergibt folgendes Bild: Auf der x-Achse sind die Anzahl Benutzer aufgetragen und auf der y-Achse die Kosten pro Benutzer im Monat.

Entgegen der Erwartung der meisten Leute fallen die Skaleneffekt nur sehr schwach aus. Kleinere IT-Abteilungen mit nur 200 - 300 PC haben einen Nachteil, indem sie schlechtere Einkaufskonditionen haben und auch ihre zentralen Infrastrukturen schlechter auslasten können (z.B. weniger Benutzer pro Mail- oder File-Server). Sie lösen Vieles aber auch wesentlich pragmatischer und einfacher wie grössere IT-Abteilungen, die alle Systeme redundant und häufig auch viel komplexer auslegen (müssen).

Dass man auch als kleine IT tiefe Kosten pro PC-Arbeitsplatz erreichen kann, zeigen die Werte links unten in der Grafik. Und dass auch grosse Unternehmen hohe Kosten haben können, zeigen die Punkte oben rechts in der Grafik. Grösse ist also noch lange kein Garant für tiefe Kosten und klein sein heisst nicht automatisch, dass alles teurer sein muss.

Bis knapp 3 000 PC-Arbeitsplätze sinken die Kosten pro Arbeitsplatz leicht, um dann wieder etwas anzusteigen. Dies rührt daher, dass grössere IT-Umgebungen praktisch immer hoch redundant und häufig auch entsprechend komplex und damit teuer aufgebaut sind und entsprechende Betriebskosten verursachen.

Mindestens im Bereich Electronic Workplace spielen Skaleneffekte damit eine untergeordnete Rolle. Dies muss aber nicht in allen anderen Gebieten der IT der Fall sein. Unsere Auswertungen der SAP-Benchmarks zeigen, dass bei SAP sogar ein recht hohes Skalenpotenzial vorhanden ist.


Prozessperspektive

Incident Management

Incident Management ist der wichtigste Prozess der IT. Deshalb lohnt es sich auch, die entsprechenden KPI zu definieren und zu messen:

Interessant sind nicht zuletzt die beiden KPI «Anzahl offener Incidents» und «Anzahl neuer Incidents pro Zeiteinheit». Steigen diese an, ist dies ein Frühindikator, dass sich die Leistungen der IT verschlechtern, weil z.B. ein neues System mit ungenügender Qualität eingeführt wurde. Das Service Desk merkt hier sehr schnell, wenn etwas nicht stimmt und sollte dies den verantwortlichen Stellen in der IT melden, damit diese die Probleme analysieren und lösen können.


Auch hier sollen nicht alle, sondern nur die für die Firma resp. IT relevanten KPI implementiert werden.

In der obigen Tabelle ist ebenfalls dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Mit IT-Mgmt sind die jeweiligen Führungskräfte in der IT gemeint, für die die KPI jeweils relevant sind resp., welche die KPI erheben und direkt für die entsprechende Leistung verantwortlich sind

CIO: IT-Leiter. Im Bereich der IT-Finanzen muss sich der CIO mit sämtlichen KPI auseinandersetzen

Kunden: Kunden der IT. Je nach Firma werden die Finanz-KPI den IT-Kunden zugänglich gemacht. Üblicherweise jedoch nicht

CEO: Vor allem im Bereich der Finanzen sind viele der KPI aus der IT auch für den CEO resp. die GL der Firma relevant


Prozessperspektive

Service Desk

Das Service Desk ist das wichtigste Interface der IT zu ihren Kunden resp. Anwendern. Deshalb lohnt es sich auch, die entsprechenden KPI zu definieren und zu messen:

Wie schon bei den Finanz-KPI gilt auch hier, dass nicht sämtliche KPI aus der obigen Tabelle implementiert werden sollen. Vielmehr sollen diese als Anregung dienen, welche KPI in der eigenen Firma / IT hilfreich sind und implementiert werden sollen.

In der obigen Tabelle ist ebenfalls dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Mit IT-Mgmt sind die jeweiligen Führungskräfte in der IT gemeint, für die die KPI jeweils relevant sind resp., welche die KPI erheben und direkt für die entsprechende Leistung verantwortlich sind

CIO: IT-Leiter. Im Bereich der IT-Finanzen muss sich der CIO mit sämtlichen KPI auseinandersetzen

Kunden: Kunden der IT. Je nach Firma werden die Finanz-KPI den IT-Kunden zugänglich gemacht. Üblicherweise jedoch nicht

CEO: Vor allem im Bereich der Finanzen sind viele der KPI aus der IT auch für den CEO resp. die GL der Firma relevant


Finanzperspektive

KPI der Finanzperspektive

Eines der ersten Themen im Servicemanagement Circle von axeba mit 24 Firmen war die Bestimmung der relevanten KPI in der IT. Alle teilnehmenden Firmen haben die bei Ihnen im Einsatz stehenden KPI mitgebracht und wir haben diese zusammengestellt.

In der Finanzperspektive werden die folgenden KPI gemessen:

 

Es ist nicht die Meinung, sämtliche KPI aus der obigen Tabelle zu implementieren. Vielmehr sollen diese als Anregung dienen, welche KPI in der eigenen Firma / IT hilfreich sind und implementiert werden sollen.
In der obigen Tabelle ist ebenfalls dargestellt, für welche Stellen / Personen die KPI von Interesse sind:

IT-Mgmt: Mit IT-Mgmt sind die jeweiligen Führungskräfte in der IT gemeint, für die die KPI jeweils relevant sind resp., welche die KPI erheben und direkt für die entsprechende Leistung verantwortlich sind

CIO: IT-Leiter. Im Bereich der IT-Finanzen muss sich der CIO mit sämtlichen KPI auseinandersetzen

Kunden: Kunden der IT. Je nach Firma werden die Finanz-KPI den IT-Kunden zugänglich gemacht. Üblicherweise jedoch nicht

CEO: Vor allem im Bereich der Finanzen sind viele der KPI aus der IT auch für den CEO resp. die GL der Firma relevant


Balanced Scorecard als Basis für die KPI

Perspektiven: Finanzen, Kunden, Prozesse, Potenzial und Projekte

axeba beschäftigt sich seit über 15 Jahren mit KPI und Benchmarking-Werten. Als wir dann aber im Jahr 2006 unseren Servicemanagement Circle mit 24 Firmen gegründet haben, haben wir uns etwas grundlegender Gedanken zum Thema KPI gemacht.

Als Grundlage verwenden wir die Balanced Scorecard mit ihren vier Perspektiven Finanzen, Kunden, Prozesse und Potenzial. Damit lassen sich die meisten IT-Themen gut abbilden.

 

 

Eine wichtige Perspektive fehlt jedoch für die IT: Die Projekte. Diese haben wir deshalb noch ergänzt, so dass unser Modell wie folgt aussieht:

 

In diesen fünf Perspektiven bilden wir dann alle relevanten KPI ab.

Welche diese KPI konkret für die IT sind, ist dann Thema der folgenden KPI of the month Beiträge.


Gut 5 Minuten Gesprächszeit im Service Desk

Höhere Lösungsraten bedingen längere Gesprächsdauern

Die Gesprächsdauer eines Anrufs im Service Desk beträgt im Durchschnitt gut 5 Minuten (exakt 5.3 Minuten). Dies kann natürlich nur in Service Desks gemessen werden, die über eine entsprechende Telefonieanlage mit Auswertemöglichkeit verfügen. Verfügt ein Service Desk nicht über eine entsprechende Telefonieanlage, kann die Gesprächsdauer während ein paar Tagen auch «von Hand» gestoppt und mit dem obigen Referenzwert verglichen werden.

Wie wir im KPI 2/2015 gesehen haben, beträgt die durchschnittliche Lösungsrate 67%. Dies passt zur Gesprächsdauer von gut 5 Minuten. Daraus lässt sich ableiten, dass für sehr hohe Lösungsraten (über 75%) in der Regel deutlich längere Gesprächsdauern nötig sind, was eine entsprechende Ressourcierung bedingt.

Umgekehrt muss bei einem Service Desk mit einer niedrigen Lösungsrate die Gesprächsdauer deutlich unter 5 Minuten liegen, was entsprechend weniger Personal im Service Desk benötigt. Ist dies nicht der Fall, so muss die (zu) lange Gesprächsdauer thematisiert werden. Entweder werden die Incidents schneller gelöst oder – noch besser – mit der langen Gesprächsdauer müssen mehr Fälle gelöst werden.

Dabei muss jedoch darauf geachtet werden, dass die Vorgaben im Service Desk nicht zu hart sind. Werden sämtliche Werte wie Gesprächsdauer, Lösungsrate, Wartezeit usw. hart vorgegeben, geht es im Service Desk nicht mehr darum, die Anwender zufrieden zu stellen, sondern nur noch darum, die Vorgaben einzuhalten.

Damit dürfte es schwierig werden, eine hohe Benutzerzufriedenheit zu erreichen.

Gesprächsdauer eines Anrufs in Minuten

 

 


15 – 20 Sekunden Wartezeit im Service Desk

Über 20 Sekunden ergibt eine ungenügende Benutzerzufriedenheit, unter 15 zu hohe Kosten

Im Durchschnitt muss ein Anwender 18 Sekunden warten bis das Service Desk seinen Anruf entgegen nimmt. Die Zeit läuft natürlich erst ab dem Zeitpunkt, wo das Service Desk den Anruf auch entgegennehmen kann. D.h. alle Ansagen davor zählen noch nicht zur Wartezeit. Insofern dauert es für den Anwender in der Regel deutlich länger bis sein Anruf entgegengenommen wird.

Verglichen mit vielen externen Kunden-Service Desks sind 18 Sekunden ein sehr guter Wert. Werte bis 20 Sekunden sind in der Regel unkritisch. Die Erfahrung zeigt, dass Wartezeiten von mehr als 30 Sekunden einen negativen Einfluss auf die Benutzerzufriedenheit haben.

Die Wartezeit korreliert natürlich mit der lost call rate. D.h. je höher die lost call rate (Rate der verlorenen Anrufe), desto höher ist auch die Wartezeit und umgekehrt.

Natürlich gelten damit auch die Aussagen im letzten KPI of the month zur lost call rate: Lost call rates unter 10% bedingen eine entsprechende personelle und damit auch finanzielle Ressourcierung. Insofern sind Wartezeiten, die unter 15 Sekunden liegen, nicht anzustreben, da damit die Benutzerzufriedenheit kaum noch gesteigert werden kann, die Kosten aber entsprechend ansteigen.

Damit sind durchschnittliche Wartezeiten zwischen 15 und 20 Sekunden ein optimaler Kompromiss zwischen Benutzerzufriedenheit und Kosten.
Natürlich bezieht sich dies nur auf die Durchschnittswerte und bei Auftreten einer grösseren Störung kann die Wartezeit durchaus auch in den Minutenbereich gehen falls keine entsprechende Meldung vorgeschaltet wird.

Wartezeit im Service Desk in Sekunden

 

 


10% verlorene Anrufe im Service Desk

Über 10% ergibt eine ungenügende Benutzerzufriedenheit, unter 10% zu hohe Kosten

Wir haben in der Vergangenheit bereits mehrfach KPI für das Service Desk vorgestellt und behandelt:

  • 7.7 Anfragen pro Benutzer im Jahr (KPI 7/2014)
  • 67% Lösungsrate (KPI 2/2015)
  • 600 Benutzer pro Service Desk Agent im Jahr (KPI 12/2015)
  • 4 700 Anfragen pro Service Desk Agent (KPI 1/2016
  • Kosten von CHF 20 pro Benutzer im Monat (KPI 8/2016)

Diesmal wollen wir die verlorenen Anrufe (lost call rate) etwas näher anschauen: Im Durchschnitt all unserer Benchmarks verlieren die Service Desks 10% aller Anrufe. Ein verlorenerer Anruf (lost call) entsteht dann, wenn ein Benutzer die Geduld in der Warteschleife verliert und das Telefon wieder aufhängt. Einige Service Desks zählen dabei Abbrüche, die nach ein oder zweimaligem Klingeln erfolgen, nicht zu den lost calls, da das Service Desk in so kurzer Zeit kaum eine Chance hat, das Telefon abzunehmen.

10% ist ein recht vernünftiger Wert, der noch kaum einen negativen Einfluss auf die Benutzerzufriedenheit hat. Werte über 10% lassen die Zufriedenheit jedoch rasch absinken und 20% verlorene Anrufe sind bereits ein sehr schlechter Wert.

Werte unter 10% erfordern häufig eine hohe Ressourcierung im Service Desk und bedingen damit entsprechende Kosten. Soll die lost call rate auf unter 5% gesenkt werden, so stehen die dafür erforderlichen personellen (und damit auch finanziellen) Ressourcen in keinem Verhältnis mehr zu der damit erreichbaren Benutzerzufriedenheit.

Insofern sind daher Werte von 10% oder leicht darunter als optimal zu betrachten.

 

Lost Rate im Service Desk in Prozent

 

 


Günstiger Cloud-Speicher

Cloud-Speicher günstiger als interne IT und als Outsourcing

Die Storage-Preise sinken laufend und aktuell kostet ein Gigabyte redundanter Storage inkl. Backup zwischen CHF 3.59 und CHF 6.20 pro Jahr. Dies ergibt monatliche Kosten von gerade mal noch 30 bis 50 Rappen pro GB.

Im Gegensatz zu den virtuellen Windows-Servern, bei denen die interne IT klar günstiger abgeschnitten hat, sieht die Situation beim Storage umgekehrt aus. Cloud-Storage kostet hier deutlich weniger sowohl im Vergleich zu unserem Kunden-Benchmark als auch im Vergleich mit verschiedenen Outsourcing-Angeboten.

Natürlich kommen hier noch technische Aspekte dazu: Nur den Storage aus der Cloud zu beziehen und die Server on Premise zu betreiben, dürfte – je nach Anwendung – zu sehr schlechter Performance führen. Vor allem Datenbank-Zugriffe dürften unter einer solchen Architektur stark leiden. Wenn der Storage aus der Cloud bezogen werden soll, dann müssen üblicherweise auch die Server in der gleichen Cloud betrieben werden.

Ob dies bei vorwiegend intern (innerhalb der eigenen Firma) genutzten Daten und Applikationen Sinn macht, ist jedem selber überlassen zu beurteilen (resp. seinen Anforderungen bezüglich Datenschutz). Wird auf die Daten jedoch vorwiegen extern zugegriffen (z.B. von Kunden), dann macht eine Datenspeicherung in der Cloud in den meisten Fällen sehr viel Sinn (nicht nur aus Kostengründen).

 


Linux Cloud-Server günstiger als Windows-Server

Ein Kundenbenchmark hat gezeigt, dass interne Leistungen durchaus mit Cloud-Angeboten konkurrenzfähig sind

Bei unserem Benchmarking-Kunden kostet ein virtueller Linux-Server* mit CHF 1 813 pro Jahr leicht mehr als ein virtueller Windows-Server. Dies dürfte darauf zurück zu führen sein, dass er mehr als doppelt so viele Windows- wie Linux-Server betreibt.

Dass bei den Cloud-Angeboten die Linux-Server mit CHF 1 504 hingegen deutlich günstiger sind als die Windows-Server mit CHF 2 300 pro Jahr, hat uns daher überrascht. Noch mehr überrascht hat uns, dass ein sehr ähnlicher Preisunterschied zwischen den Windows- und Linux-Servern besteht, die Microsoft mit ihrem Azure-Angebot anbietet. Hier hätten wir eigentlich erwartet, dass Microsoft die Windows-Server günstiger als die Linux-Server anbietet.

Wir können nur mutmassen, wieso die virtuellen Linux-Server in der Cloud so viel günstiger sind als die Windows-Server: Ein Grund dürfte sicher die Windows-Lizenz sein. Und ein anderer Grund könnte sein, dass sich Linux-Server mit weniger Personalaufwand betreiben lassen als Windows-Server. Was sind Ihre Erfahrungen und Vermutungen?

Fazit: Bei den Cloud-Angeboten schneiden die Linux-Server klar günstiger ab als die Windows-Server. Dass dies bei unserem Kunden gerade umgekehrt ist, dürfte auf die geringere Anzahl Linux-Server zurück zu führen sein. Aber selbst unter diesen Bedingungen erreicht unser Kunde sogar bei den Linux-Servern nur leicht höhere Kosten als die Cloud-Angebote. Ein detaillierter Kostenvergleich der internen und externen Kosten ist also immer zwingend, bevor man sich für die eine oder andere Lösung entscheidet.

*Die Kosten für die virtuellen Server beinhalten alle dazu notwendigen Kosten wie Personal, Datacenter (Raum, Klima, Strom, Netzwerk), Hardware, Virtualisierungs-Lizenzen, Systems Management usw.

 


Cloud-Server nicht unbedingt günstiger

Ein Kundenbenchmark hat gezeigt, dass interne Leistungen durchaus günstiger als Cloud-Leistungen sein können

Cloud-Services sind flexibel und günstig. Das denken alle und unsere Lösung zur Erhebung der Anwenderzufriedenheit läuft schon seit Jahren zu unserer vollsten Zufriedenheit in der Azure-Cloud von Microsoft. Aber stimmt es wirklich, dass Cloud-Services günstiger sind?

Letzthin hat uns ein Kunde beauftragt, einen Kostenvergleich zwischen seinen selber betriebenen virtuellen Servern und Outsourcing- und Cloud-Angeboten durchzuführen: Etwas überrascht waren wir schon, als wir nach eingehender Kalkulation sämtlicher Kosten* gesehen haben, dass die virtuellen Server des Kunden deutlich unter den Cloud-Angeboten liegen.

Im Vergleich mit unserer Benchmarking-Datenbank sowie mit verschiedenen Outsourcing-Preisen aus verhandelten Angeboten, machen die internen Kosten für die virtuellen Windows-Server sogar weniger als der Hälfte aus.

Ein Outsourcing oder eine Auslagerung in die Cloud würde also die Kosten klar erhöhen. Dabei sind in den untenstehenden Vergleichswerten die Kosten für den Ausbau der Internetanbindung (resp. der Anbindung zum Provider) noch nicht enthalten. Und auch noch nicht die Kosten, die nötig sind, um den Outsourcing- oder Cloud-Provider zu «managen».

Interessant ist es aber auch, zu sehen, dass die Cloud-Angebote in der Tendenz günstiger sind wie die Outsourcing-Angebote. Und es heisst auch nicht, dass die interne Leistungserbringung in jedem Fall günstiger ist wie Outsourcing- oder Cloudleistungen. Jeder Fall ist individuell und muss auch individuell betrachtet und gerechnet werden.

*Übrigens: Die Kosten für die virtuellen Windows-Server beinhalten alle dazu notwendigen Kosten wie Personal, Datacenter (Raum, Klima, Strom, Netzwerk), Hardware, Virtualisierungs-Lizenzen, Systems Management usw.

 


Gleichbleibende Supportkosten seit 2007

Die Gesamtkosten für Service Desk und Onsite Support sind in den letzten knapp 10 Jahren nicht mehr gesunken

In den letzten beiden KPI of the month haben wir die Kostenentwicklung der Gebiete Service Desk sowie Onsite Support untersucht.

Zählt man die monatlichen Kosten pro Benutzer für diese beiden Gebiete zusammen, so sieht man, dass die gesamten Supportkosten in den letzten knapp 10 Jahren kaum gesunken sind. Tendenziell wurden die Kosten vom 2nd Level Enduser Support (Onsite Support) in das Service Desk verlagert, was auch Sinn macht: Mit mehr Ressourcen kann das Service Desk eine höhere Lösungsrate und damit nicht nur die Anwender zufriedener machen, sondern auch den Onsite Support entlasten.

Insgesamt konnte damit die Qualität bei gleichbleibenden Kosten gesteigert werden.

 

Service Desk und Onsite Support: Kosten pro Benutzer im Monat


Sinkende Kosten im Onsite Support

Sinkende Kosten dank hoher Lösungsrate des Service Desks und Standardisierung

Im letzten KPI of the month haben wir gesehen, dass die Kosten im Service Desk bis 2009 gesunken und danach wieder angestiegen sind. Dass sich eine hohe Lösungsrate (und damit auch höhere Kosten) des Service Desks auch in den Supportkosten bemerkbar macht, erkennt man an den laufend gesunkenen Kosten im Onsite Support.

Auch wenn diese mit der Zeit immer langsamer und zudem (wegen statistischer Schwankungen) im Zickzack-Kurs sinken, sind bis 2011 laufend Verbesserungen fest zu stellen. Danach verharren sie mehr oder weniger auf dem gleichen Niveau und es sieht nicht danach aus, dass sich die Supportkosten in Zukunft weiter senken lassen.

Zur Senkung der Supportkosten tragen sicherlich nicht nur die gute Lösungsrate des Service Desks, sondern ebenfalls die immer höhere Standardisierung und das bessere Management der PC-Clients bei.

Umgebungen mit Thin- oder Zero-Clients tragen weiter zu sehr tiefen Supportkosten bei. Da solche Umgebungen jedoch nur bei wenigen der untersuchten Kunden im Einsatz sind, wird dieser Effekt in den Benchmarking-Werten kaum sichtbar. Umgebungen mit Thin-/Zero-Clients erreichen üblicherweise nochmals tiefere Kosten im Onsite Support, die jedoch bei den Serverkosten fast immer mehr als kompensiert werden.

 

Onsite Support: Kosten pro Benutzer im Monat


Service Desk eher teurer über die Zeit

Kostensenkungen bis 2009, danach wieder Kostenanstieg

Ein (nicht nur kostenmässig) interessantes Gebiet ist das Service Desk. Hier sind die Kosten bis 2009 gesunken wie in den meisten anderen Gebieten. Danach sind sie jedoch wieder (zum Teil sehr deutlich) angestiegen.

Dieser Anstieg kann nicht alleine auf statistische Schwankungen abgewälzt werden. Vielmehr dürften die Firmen inzwischen erkannt haben, dass ein gutes Service Desk nicht nur das Image der IT stärkt, sondern ebenfalls die Gesamtkosten signifikant senkt.

Kosten über CHF 30 pro Benutzer im Monat sind sicherlich zu hoch. Ein vernünftiger Wert dürfte sich zwischen CHF 20 und CHF 25 pro Benutzer einpendeln.

Ein starkes Service Desk mit einer hohen Lösungsrate ist Voraussetzung für tiefe Kosten im Onsite Support. Dass die Supportkosten tatsächlich deutlich gesenkt werden konnten, werden wir dann im nächsten KPI of the month sehen.

 

Service Desk: Kosten pro Benutzer im Monat


Server-Virtualisierung seit 2009 umgesetzt

Keine signifikanten Kostensenkungen mehr seit 2009

Bei den Workplace-Servern (File-Server, Print-Server, Terminal-Server sowie Infrastruktur-Server wie DHCP, DNS, Domain Controller usw.) sind die Kosten pro Benutzer bis ins Jahr 2009 kontinuierlich gesunken. Dies dürfte einerseits auf sinkende Hardwarepreise, aber vor allem auch auf die Virtualisierung zurück zu führen sein, die im Jahr 2002 noch kaum verbreitet war und dann immer mehr Einzug gehalten hat.

Ab 2010 sind dann die Kosten sogar wieder etwas angestiegen, um dann für die Jahre 2014 und 2015 wieder das Niveau von 2009 zu erreichen. Bei der Analyse dieser Werte darf nicht vergessen werden, dass wir pro Jahr zwischen einem halben und einem ganzen Duzend Benchmarks durchführen und so gewisse statistische Schwankungen auftreten.

Insgesamt hat sich das Kostenniveau in den vergangenen sechs Jahren nicht mehr weiter verbessert und es ist damit zu rechnen, dass dies auch in der Zukunft so bleiben dürfte.

Sollte sich die Client Virtualisierung (VDI) durchsetzen, ist sogar damit zu rechnen, dass die Serverkosten wieder deutlich ansteigen werden und es ist fraglich, ob diese Mehrkosten durch günstigere Clients (Thin- oder Zero-Clients) sowie durch weniger Supportaufwände wieder kompensiert werden können.

 

Kosten der Workplace-Server inkl. HW, SW und Personalkosten


Softwarelizenzen kaum günstiger

Mit dem Wechsel vom Kaufmodell zum Mietmodell werden die SW-Lizenzen tendenziell teurer

Unser Benchmarking-Gebiet „Office“, das nebst dem Client-Engineering sowohl die SW-Paketierung und -Verteilung als auch die Basis-Lizenzkosten für Windows auf den Clients sowie MS-Office und Virenscanner umfasst, weist einerseits starke Schwankungen und andererseits eine weniger klare Tendenz nach unten auf.

In der Vergangenheit bestand der Trick darin, kein Enterprise Agreement EA (oder Software Assurance SA) mit Microsoft abzuschliessen. Die Lizenzen wurden vielmehr gekauft und dann möglichst lange eingesetzt. Die meisten Firmen lassen eh (mindestens) eine Version von MS-Office aus und konnten so spürbar ihre Client-Lizenzkosten senken. Im Gegensatz zu den Open Source Diskussionen in den öffentlichen Verwaltungen wäre dies übrigens die Lösung für tiefe Lizenzkosten gewesen.

Microsoft hat dies jedoch bereits vor längere Zeit erkannt und verlangt nun für den Einsatz gewisser Software ein EA/SA. Und mit den sich immer stärker verbreitenden Mietmodellen von Software (Office 365) entfällt der obige Trick mit dem Kauf der Lizenzen ohne Wartung und die Lizenzkosten steigen tendenziell wieder an.

Dabei ist der Knick im Jahr 2013 atypisch: Dieser geht darauf zurück, dass in diesem Jahr mehrere Non-Profit-Organisationen mit sehr guten Lizenzkosten gebenchmarkt wurden.

Die Lizenzkosten machen jedoch nur etwa die Hälfte der Kosten in diesem Gebiet aus. Die andere Hälfte sind Personalkosten für die SW-Paketierung und –Verteilung. Hier konnte die Effizienz nicht gesteigert werden und diese Aufwände sind über die ganze Zeit immer etwa gleich hoch geblieben.

Es ist daher nicht damit zu rechnen, dass die Kosten in diesem Gebiet zukünftig sinken werden und wenn das Niveau von 2010 gehalten werden kann, dann dürfte dies bereits als Erfolg zu werten sein.


Endgerätekosten noch ein Viertel seit 2002

Von 2002 bis 2015 sind die durchschnittlichen Kosten pro Benutzer von CHF 153 auf CHF 35 pro Monat gesunken

Die jährliche Entwicklung der Endgerätekosten (Desktops, Notebooks, ThinClients, Drucker, Multifunktionsgeräte) pro Benutzer im Monat weist eine wenig erstaunliche Kurve auf: Analog wie die Gesamtkosten des Electronic Workplace sinken die Kosten bis ins Jahr 2009 resp. 2010 deutlich, um danach sogar wieder leicht anzusteigen resp. bis ins Jahr 2014 leicht weiter zu sinken.

Da wir pro Jahr „nur“ rund ein halbes bis ein ganzes Duzend Firmen benchmarken, treten im Jahresvergleich natürlich gewisse (wenn auch nicht allzu grosse) statistische Schwankungen auf.

Übrigens: Die sinkenden Hardwarepreise haben den grössten Einfluss auf die untenstehende Kurve. Die Nutzungsdauer ist der andere Faktor, der die Kosten letztendlich noch stärker beeinflusst als die Hardwarepreise. Wie die Auswertung darunter zeigt, schwankt die Nutzungsdauer zwar etwas, bleibt in der Tendenz jedoch unverändert. Das heisst, dass die sinkenden Kosten durch den Zerfall der Hardwarepreise und nicht durch die längere Nutzungsdauer zu Stande kommen.

Ob die Hardwarekosten zukünftig weiter sinken werden, ist anhand der obigen Kurve eher zu bezweifeln. Und wenn, dann höchstens geringfügig.

Übrigens: ThinClients sind in den obigen Kosten ebenfalls enthalten. Diese kommen jedoch nur bei wenigen Firmen zum Einsatz. Zudem haben alle unsere Benchmarks gezeigt, dass das Geld, das bei den Endgeräten (und im Support) eingespart werden kann, in der Regel bei den Servern wieder mehr als kompensiert wird. Und VDI dürften diese Tendenz wohl noch weiter verstärken und die Kosten tendenziell erhöhen (die Flexibilität allerding ebenfalls).

Nutzungsdauer


Kosten pro Benutzer beinahe noch ein Drittel seit 2002

Von 2002 bis 2015 sind die durchschnittlichen Kosten pro Benutzer von CHF 510 auf CHF 175 pro Monat gesunken

Seit der Gründung der axeba im Jahr 2002 haben wir 80 Unternehmen mit insgesamt gut 320 000 PC gebenchmarkt. Verschiedene Firmen haben wir mehrmals gebenchmarkt (eines sogar sechs Mal), so dass bis heute 150 Benchmarks zusammen gekommen sind. Diese Werte haben wir ausgewertet und wollen sie in den kommenden KPI of the month vorstellen und genauer analysieren.

Wir beginnen mit den Gesamtkosten pro EWP (Electronic Workplace). Darin sind die folgenden Gebiete enthalten: Service Desk, 2nd Level End User Support, Power/Key-User (falls vorhanden), Endgeräte, File-/Print-/Infrastruktur-Server, LAN, E-Mail sowie SW-Verteilung inkl. Basis-Lizenzen. Was die einzelnen Gebiete jeweils beinhalten, erläutern wir dann bei der Analyse der jeweiligen Gebiete in den folgenden KPI of the month.

Wie die untenstehende Grafik zeigt, sind die monatlichen Kosten pro Benutzer in den Jahren 2002 bis 2009 praktisch kontinuierlich gesunken. Seit 2009 sinken die Kosten nur noch marginal und sind beinahe konstant. Dass sich nicht alle Gebiete so verhalten, werden wir in den folgenden KPI of the month sehen, wo wir einen vertieften Blick auf die einzelnen Gebiete des Workplaces werfen.


7x weniger Fälle pro Supporter als pro Service Desk Agent

648 Einsätze im Jahr pro Support-Mitarbeiter

Im KPI of the month (1/2016) haben wir gesehen, dass ein Service Desk Agent im Durchschnitt 4 661 Anfragen pro Jahr bearbeitet. Im Onsite Support leistet ein Supporter im Durchschnitt 648 Einsätze pro Jahr.

Auf den ersten Blick ist dies eine tiefe Zahl, die nur rund drei Einsätzen pro Tag und Supporter entspricht. Dabei ist jedoch zu berücksichtigen, dass die Support-Spezialisten zuerst noch zu Fuss und mit dem Auto an den Arbeitsplatz des entsprechenden Mitarbeiters gehen resp. fahren müssen und dass die Problemstellungen im Onsite Support häufig schwieriger und aufwändiger sind als die Fälle, die im Service Desk gelöst werden können. Zudem kommen noch weiter Aufgaben wie PC-Installationen, Umzüge, Mitarbeit in Projekten usw. dazu.

Die Reisezeit sowie die in der Regel komplexeren Fälle sind der Grund dafür, dass im Service Desk pro Person rund 7 mal mehr Fälle gelöst werden als im Onsite Support. Und damit sind natürlich auch die Kosten im Service Desk rund 7x tiefer als im Onsite Support (bei angenommenen gleichen Lohnkosten). Ein Grund mehr für eine möglichst hohe Lösungsrate im Service Desk, so dass der Onsite Support möglichst nur noch Hardwareprobleme lösen muss, die einen Einsatz vor Ort unumgänglich machen.

 

 


Immer effizienterer Onsite-Support

465 Benutzer pro Support-Mitarbeiter

Im KPI of the month 12/2015 hatten wir gesehen, dass ein Service Desk Agent im Durchschnitt 576 Benutzer betreut. Im Onsite Support kommen im Schnitt 465 Benutzer auf einen Support-Mitarbeitenden.

Dieses Verhältnis hat sich über die letzten Jahre stark gesteigert. Vor rund 15 Jahren war ein Verhältnis von 1:200 noch ein guter Wert und mit der immer stärkeren Standardisierung und Remotezugriff auf die PC konnte dieser Wert kontinuierlich gesteigert werden.

Der Höchstwert in unserer Datenbank beträgt übrigens 1 405 Benutzer pro Supporter, was rund dreimal höher ist als der Datenbankdurchschnitt. Solch hohe Werte kommen vor allem in Umgebungen mit Thin/Zero-Clients vor. Hier werden die Personalaufwände sowie die Kosten stark vom Onsite Support hin zu den Serverspezialisten verlagert.

Wie viele unserer Benchmarks gezeigt haben, lohnt sich ein solcher Schritt übrigens kostenmässig fast nie und eine Umgebung mit Fat-Clients ist praktisch immer günstiger als eine Thin/Zero-Client-Umgebung. Die Einsparungen bei den Clients und den Supportmitarbeitenden sind meistens geringer als die Mehraufwände für die Server sowie deren Lizenzen und Betreuung.

 

 


Viel Arbeit im Service Desk

4 700 Anfragen pro Service Desk Agent im Jahr

Im letzten KPI of the month (12/2015) hatten wir gesehen, dass ein Service Desk Agent im Durchschnitt 576 Benutzer betreut. Und im Durchschnitt meldet sich ein Benutzer 7.7 mal pro Jahr beim Service Desk (KPI of the month 07/2014).

Multipliziert man diese beiden Zahlen, so kommt man auf 4 435 Anfragen, die ein Service Desk Agent pro Jahr bewältigen kann. Gemäss unserer Datenbank sind es 4 661 und ein Kollege hat auf den letzten KPI spontan zurück gemeldet, dass er mit 4 800 Anfragen pro Agent im Jahr rechnet. Das passt also alles bestens zusammen.

Der Höchstwert in unserer Datenbank beträgt übrigens 8 757, also beinahe doppelt so hoch wie der Durchschnitt. Wie ist dies möglich? Einmal mehr nur mit einer tiefen Lösungsrate. Wenn man die Lösungsrate ausser Acht lässt, dann kann man problemlos auch nur mit halb so vielen Service Desk Agenten operieren. Allerdings sinkt damit nicht nur die Kundenzufriedenheit, sondern die Kosten für die Lösung der Probleme im 2nd/3rd Level-Support steigen überproportional an.

Es lohnt sich also in jedem Fall auf eine hohe Lösungsrate (über 70%) im Service Desk zu achten. Dies bedingt aber eine entsprechende Ressourcierung und damit entsprechende Kosten, die im 2nd/3rd Level-Support jedoch mehr als kompensiert werden.

Wer hat sein wichtigstes Interface zur IT in ein Billiglohnland verlagert und/oder hat eine Lösungsrate von unter 70%?

 

 


Weniger ist mehr

Knapp 600 Benutzer pro Service Desk Agent

Im Durchschnitt betreut ein Service Desk Agent 576 Benutzer. D.h. dass bei einer IT mit 2 000 Benutzern knapp 4 Personen im Service Desk nötig sind.

Dieser Wert schwankt aber stark und der Bestwert in unserer Datenbank beträgt 1 282 Benutzer pro Agent im Service Desk. Wie kommt ein solcher Wert zustande, der über doppelt so hoch ist wie der Durchschnitt? Ganz einfach: Die Ressourcierung hängt stark von der Lösungsrate ab (und natürlich von weiteren Faktoren wie den Servicezeiten, dem Anfragevolumen usw.).

D.h. mit über 1 000 Benutzern pro Agent lässt sich keine gute Lösungsrate mehr erreichen und das Service Desk löst dann in der Regel deutlich weniger als 50% aller Anfragen selbst. Dass dies nicht nur schlecht, sondern letztendlich auch teuer ist, haben wir im KPI 2-2015 gesehen.

Umgekehrt bedingt eine hohe Lösungsrate von über 70% natürlich auch eine entsprechende Ressourcierung im Service Desk, so dass nur noch ein Verhältnis von 500 oder 400 Benutzer pro Service Desk Agent erreicht werden kann. Manchmal kann weniger (Benutzer pro Agent) also durchaus auch mehr (Lösungsrate) bedeuten.

Bei einer durchschnittlichen Lösungsrate von 67% (bei Servicezeiten von 50-60 Stunden pro Woche und einem Anfragevolumen von rund 8 Anfragen pro Benutzer im Jahr) sollten jedoch rund 600 Benutzer pro Service Desk Agent betreut werden können.

 

 


Hohe Effizienz in der Serverbetreuung

Über 1 000 Benutzer pro Serverbetreuer

Im Bereich Electronic Workplace ist im Durchschnitt pro 1 040 Benutzer ein Serverbetreuer notwendig. In hochstandardisierten und grossen Umgebungen werden Werte bis über 3 000 Benutzer pro Serverbetreuer erreicht.

Bei kleineren Informatikabteilungen mit weniger als 1 000 Benutzern ist der Servermanager häufig noch für andere Gebiete (z.B. Netzwerk) verantwortlich, so dass auch in kleineren Firmen entsprechend hohe Werte erreicht werden können.

Bei den Servern machen die Personalkosten nur rund ein Drittel der Gesamtkosten aus. Daher werden die Kosten bei den Servern vor allem durch die Sachkosten (Hardware und Lizenzen) bestimmt und weniger durch die Personalaufwände.

 

 


Immer mehr Server pro Serverbetreuer

50 Server pro Serverbetreuer

Im Durchschnitt betreut ein Serverspezialist 50 (virtuelle und physische) Server im Bereich Electronic Workplace. Spitzenwerte werden mit über 100 Servern pro Serverspezialist erreicht und in sehr grossen und hoch standardisierten Serverumgebungen sind auch noch höhere Werte vorstellbar.

Zu den Aufgaben der Serverbetreuer im Benchmark-Vergleich gehören nicht nur der Betrieb und die Störungsbehebung, sondern auch das Engineering und die Installation der Server. In grossen IT-Abteilungen, in denen die Serverabteilung nur gerade die Server selbst betreut, dürften Werte auch deutlich über 100 Server pro Serverbetreuer erreicht werden.

Dieser Wert und damit die Effizienz ist in der Vergangenheit laufend angestiegen.

Bei den Servern machen die Personalkosten nur rund ein Drittel der Gesamtkosten aus. Daher werden die Kosten vor allem durch die Sachkosten (Hardware und Lizenzen) bestimmt und weniger durch die Personalaufwände.

 

 


Absinken der Benutzerzufriedenheit nach Outsourcing

Die vorherige Zufriedenheit wird in der Regel erst nach Jahren wieder erreicht

Nachdem wir im KPI 07/2015 über die Benutzerzufriedenheit und deren Abhängigkeit von der Rücklaufquote berichtet haben, hat uns jemand die Frage gestellt, ob die Benutzerzufriedenheit bei einem Outsourcing-Provider unterschiedlich ausfällt wie bei einer internen IT.

Wir messen die Benutzerzufriedenheit von verschiedenen Outsourcing-Providern, würden aber keine Aussage wagen, ob Outsourcing-Kunden mehr oder weniger zufrieden sind als die Kunden einer internen IT: Je nachdem in welcher Phase eines Outsourcing die Benutzerzufriedenheit erhoben wird, fällt diese schlechter oder besser aus. Dies dürfte auch der Grund sein, wieso die Beurteilung der Outsourcing-Provider gemäss unseren Messungen insgesamt leicht negativer ausfällt als diejenige der internen IT-Abteilungen.

Die untenstehende Grafik zeigt die Entwicklung der Benutzerzufriedenheit bei einem Outsourcing auf. Zu Beginn wurden die Leistungen noch durch die interne IT erbracht und sehr gut beurteilt (4.8 auf einer Skala mit Schweizer Schulnoten). Mit dem Outsourcing ist die Zufriedenheit stark abgesunken und es hat mehrere Jahre gedauert, bis sie wieder das alte Niveau erreicht hat.

Aber eigentlich ist das Absinken der Zufriedenheit auch logisch: Systeme, Prozesse und die Zusammenarbeit, die sich über mehrere Jahre eingespielt haben, wechseln „plötzlich“ zu einem Outsourcing-Provider, der zuerst alles so optimieren muss, bis wieder alles rund und wie geschmiert läuft wie zuvor. Anders sieht die Situation natürlich aus, wenn die Leistungen der internen IT ungenügend waren. Dann sorgt der Outsourcing-Provider (hoffentlich) für eine höhere Zufriedenheit.


Knapp 1 000 Benutzer pro Mailserver

Spitzenwerte bis über 5 000 Benutzer pro Mailserver

Die Mailserver weisen mit durchschnittlich 841 Benutzern pro Server eine deutlich höhere Benutzerdichte wie die Fileserver auf (500 Benutzer pro Server, siehe KPI 05/2015). Auch hier gilt, dass kleinere Unternehmen nicht von den Skaleneffekten profitieren können, aber dafür häufig einfachere und damit günstigere Infrastrukturen betreiben.

Mit 5 200 Benutzern pro Mailserver gibt es auch Firmen in unserer Datenbank, die sehr stark von den Skaleneffekten in diesem Bereich profitieren. Grosse Provider wie Microsoft (Office 365) oder Google kommen hier sicherlich nochmals auf deutlich höhere Werte.

Auf der anderen Seite stehen die Kosten für die Exchange-CAL (Client Access Lizenzen), die nur geringfügig von grösseren Mengen profitieren. Grössere Firmen haben tendenziell tiefere Lizenzpreise, aber so stark wie bei den Servern skalieren die Client Access Lizenzen nicht.

Hier weisen Angebote wie Office 365 interessante Aspekte auf, da zusammen mit den Serverleistungen auch gleich die Client-Lizenzen im Preis enthalten sind. Ob eine gehostete Mailumgebung günstiger ist als eine selbst betriebene, muss jedoch immer im Einzelfall geprüft und entschieden werden.

 

 


Die Benutzerzufriedenheit hängt nicht von der Rücklaufquote ab

Eine höhere Rücklaufquoten bedeutet nicht automatisch eine höhere Benutzerzufriedenheit

Wir führen viele Umfragen zur Erhebung der Benutzerzufriedenheit durch und werden immer wieder gefragt, ob die Rücklaufquote einen Einfluss auf das Ergebnis der Umfrage hat: Praktisch nicht. Hohe Rücklaufquoten ergeben im Durchschnitt minimal bessere Beurteilungen. Daraus eine Korrelation ableiten zu wollen, wäre aber gewagt, da die Unterschiede minimal sind.

Apropos Rücklaufquote: Von über 100 durchgeführten Umfragen liegt die höchste Rücklaufquote bei 64%. So hohe Rücklaufquoten werden jedoch in der Regel nur erreicht, wenn ca. in der Mitte der Umfrage nochmals alle Personen angeschrieben werden, welche die Umfrage noch nicht beantwortet haben. Meistens liegt die Rücklaufquote jedoch im Bereich von 40%.

Die tiefste Rücklaufquote liegt bei 20%, was statistisch in der Regel übrigens völlig ausreichend ist. Kritisch werden niedrige Rücklaufquoten erst, wenn die Antworten noch in unterschiedliche Gruppen aufgeteilt werden sollen (z.B. nach Geschäftsbereichen oder Abteilungen) und pro Erhebungsbereich weniger als rund 30 Antworten vorhanden sind. Solche Auswertungen sind nicht mehr zulässig, da die Resultate zu sehr von Einzelmeinungen beeinflusst werden.


Onsite Support top, Schulungsangebot flop

Je persönlicher der Kontakt, desto besser die Beurteilung

Bei praktisch allen Umfragen zur Erhebung der Benutzerzufriedenheit zeigt sich die gleiche Reihenfolge in der Beurteilung:

Das Schulungsangebot (nicht die Schulungen selbst) erhält die schlechtesten Noten gefolgt von der Kommunikation, die von vielen IT-Abteilungen stiefmütterlich behandelt wird. Die Leistungsfähigkeit (Performance und Verfügbarkeit) liegt in der Mitte während das Service Desk und noch viel mehr der Onsite Support die besten Noten erhalten.

Die guten Noten für den Onsite Support dürften darauf zurück zu führen sein, dass hier ein persönlicher Kontakt zwischen den Benutzern und den Supportern stattfindet. Die guten Noten für das Service Desk resultieren aus dem telefonischen Kontakt, der zwar nicht so persönlich ist wie im Onsite Support, aber immer noch konkrete Personen dahinter stehen.

Die übrigen Gebiete sind nicht mit spezifischen Personen verbunden und daher tendenzielle schlechter bewertet als die Gebiete mit „persönlicher“ Note.

Die Beurteilungsskala entspricht Schweizer Schulnoten.


500 Benutzer pro Fileserver

Spitzenwerte bis knapp 4 000 Benutzer pro Fileserver

Im Durchschnitt bedient ein Fileserver 500 Benutzer. Damit wird klar, dass in diesem Gebiet gewisse Skaleneffekte vorhanden sind: Ein Unternehmen mit nur gerade 100 Benutzern kann natürlich nicht auf ein so hohes Verhältnis kommen, während dem bei grossen Unternehmen Verhältnisse bis zu knapp 4 000 Benutzer pro Fileserver anzutreffen sind.

Auch wenn kleinere Unternehmen nicht im gleichen Mass von Skaleneffekten profitieren können wie grosse Unternehmen, machen sie dies meistens wieder wett, indem sie einfachere und günstigere Server einsetzen. Auf der anderen Seite sind die Infrastrukturen bei den grossen Unternehmen praktisch immer vollständig redundant und entsprechend sicher ausgelegt (in der Regel in zwei Rechenzentren), so dass die Vorteile, die sich durch die Skaleneffekte ergeben, mindestens teilweise wieder durch die redundante und sicherere Infrastruktur kompensiert werden.

 

 


5.2 GB File-Storage pro Benutzer

Industrie und Medien liegen deutlich darüber, Finanzdienstleister darunter

Auf den Fileservern werden insgesamt 5.2 GB Storage pro Benutzer belegt. Dabei sind alle Laufwerke wie persönliche Shares, Gruppen- und Projekt-Shares usw. berücksichtigt. Der Speicherplatz für E-Mail zählt nicht dazu.

Interessant ist, dass bei den Finanzdienstleistern dieser Wert in der Regel deutlich tiefer ausfällt (2.5 GB) während bei der Industrie und den Medien mit rund 10 GB deutlich mehr Speicherplatz belegt ist. Dies liegt daran, dass bei den Finanzdienstleistern der Grossteil der Daten in den operativen Systemen und nicht auf Fileshares abgelegt ist, während bei den Industrieunternehmen vor allem CAD-Daten und bei den Medienunternehmen Artikel und Bilder entsprechend viel Speicherplatz benötigen.

Über alle Firmen hinweg beträgt der vorhandene Speicherplatz 7.9 GB, was in Relation zum belegten Speicherplatz von 5.2 GB eine Reserve von gut der Hälfte darstellt.

 

 


780 MB Mailspeicherplatz pro Benutzer

Der vorhandene Mailspeicherplatz beträgt sogar 2.8 GB pro Benutzer

Im Durchschnitt belegt jeder Benutzer 780 MB Speicherplatz auf den Mailservern. Verglichen mit den Online-Anbietern wie GMail oder Office 365 ist dies zwar lächerlich wenig. Wenn man aber bedenkt, dass alle Mails gesichert und im Bedarfsfall auch wiederhergestellt werden können müssen, dann zählt jedes Gigabyte Speicherplatz, das gesichert resp. restored werden muss.

Die meisten Firmen weisen übrigens ziemliche Reserven beim Mailspeicher auf: Im Durschnitt sind 2.8 GB Speicher pro Benutzer vorhanden. Also über 3x mehr als benötigt. Eine gewisse Reserve ist aber auch nötig, da der belegte Speicherplatz laufend wächst.

Quotas sind sicher auch hier eine sinnvolle Einrichtung. Allerdings dürfen sie nicht zu tief gesetzt werden, da sonst viele Benutzer einfach ihre Mails resp. PST-Files auf den Fileservern speichern und damit einfach eine Verlagerung von Mail- zum File-Storage stattfindet.

 

 


Kompetente Service Desks

Die Service Desks lösen 67% aller Anfragen und geben nur ein Drittel weiter

Im Durchschnitt werden 67% aller Anfragen an das Service Desk auch durch dieses direkt beantwortet resp. gelöst. Dies hat gleich drei Vorteile:

1. Geringe Kosten: Während die Lösung eines Calls im Service Desk CHF 30 kostet, steigen die Kosten auf CHF 200 wenn ein Incident durch den Onsite Support gelöst wird.

2. Zufriedene Benutzer: Die Benutzer schätzen es, wenn ihnen gleich am Telefon geholfen werden kann und sie nicht an eine andere Supportstelle weitergeleitet werden müssen.

3. Zufriedene Mitarbeitende: Als Service Desk Mitarbeitende ist es wesentlich interessanter, möglichst viele Fälle selber lösen zu können als nur gerade Telefonzentrale zu spielen und ein Ticket im Service Management Tool aufzumachen. Dies äussert sich in einer deutlich geringeren Fluktuationsrate.

Sind Sie immer noch sicher, dass Sie Ihr Service Desk in ein Billiglohn-Land auslagern wollen? Nicht nur, dass Sie das wichtigstes Kunden-Interface der Informatik in fremde Hände geben. Wenn Ihr Outsourcing-Partner nicht auf die gleich hohe Lösungsrate kommt wie Ihr internes Service Desk, dann mögen zwar die Kosten für das Service Desk sinken. Die übrigen Supportkosten Ihrer IT steigen aber rasant an.

 


Onsite Support: Beinahe so kompetent wie freundlich

Die Beurteilung der Freundlichkeit und der Fachkompetenz liegen nur gerade 6 Prozentpunkte auseinander

Wie im Service Desk fällt die Beurteilung der Freundlichkeit im Onsite Support mit 94% positiven Beurteilungen (sehr gut / gut / genügend) besser aus als die Fachkompetenz mit 88% positiven Nennungen.

Im Gegensatz zum Service Desk liegen die beiden Werte im Onsite Support jedoch näher zusammen: Der Onsite Support ist bei gleicher Fachkompetenz (88%) etwas weniger freundlich als das Service Desk (94% versus 97%). Siehe auch KPI of the month vom Dezember 2014.

Hingegen wird die Lösungsgeschwindigkeit im Onsite Support mit 89% versus 80% im Service Desk deutlich besser beurteilt. Dies dürfte daran liegen, dass das Service Desk einige Anfragen an andere Supportstellen weiter geben muss (und damit die Lösungszeiten länger werden und nicht mehr in der Hand des Service Desks liegen), während der Onsite Support praktisch alle Probleme selber lösen kann und nur sehr selten auf andere Supportstellen angewiesen ist.

Mit rund 9 von 10 zufriedenen Benutzern fällt die Gesamtbeurteilung des Onsite Supportes damit durchwegs positiv aus und erreicht die besten Noten aller befragten Gebiete!


Service Desk: Freundlich aber langsam

Nur gerade 3% aller Benutzer empfinden das Service Desk als unfreundlich

Während die Freundlichkeit des Service Desks von 97% aller befragten Benutzer positiv (sehr gut / gut / genügend) beurteilt wird, erhält die Lösungsgeschwindigkeit nur von 80% der Benutzer gute Noten.

Die Erreichbarkeit als auch die Fachkompetenz des Service Desks werden jeweils von 88% der über 120 000 antwortenden Benutzer positiv beurteilt.

Damit ist das Fazit klar: „Freundlich aber langsam“ und es lohnt sich in erster Priorität die Lösungsgeschwindigkeit zu verbessern. Dabei hängt die Lösungsgeschwindigkeit nicht nur vom Service Desk, sondern vor allem auch von den nachgelagerten Supportstellen ab. Diese müssen eng in den Incident Management Prozess eingebunden sein.

Übrigens: Die Probleme müssen wirklich gelöst sein. In vielen Kommentaren wird jeweils reklamiert, dass das Service Desk nur das Ticket möglichst schnell schliessen wollte, das Problem aber noch nicht gelöst wurde.

In zweiter Priorität sollte ein Augenmerk auf die Verbesserung der Erreichbarkeit und der Steigerung der Fachkompetenz im Service Desk gelegt werden. Insgesamt bewegen sich die Beurteilungen jedoch auf erfreulich hohem Niveau!

 

 


PC werden häufig zu kurz abgeschrieben

Durchschnittliche Nutzungsdauer von 4.7 Jahren

Viele Firmen schreiben Desktops auf drei Jahre ab. Und einige Firmen ersetzen sie dann auch bereits nach drei Jahren, weil sie ja abgeschrieben sind. Dabei können PC wesentlich länger (durchschnittlich 4.7 Jahre) eingesetzt werden.

Einige Unternehmen setzen ihre PC sogar während sechs oder in Extremfällen sieben Jahren ein. Ein Einsatz der PC über sechs Jahre halbiert die Kosten gegenüber einem Einsatz von drei Jahren. Soviel kann gar nicht beim Beschaffungspreis verhandelt resp. eingespart werden. D.h. man spart deutlich mehr Geld wenn man die PC länger einsetzt als wenn man noch einige Prozent auf den Preis heraus handelt.

Eine (kostenmässig) gute Strategie ist, eher kostengünstige PC-Modelle zu beschaffen und diese aber mit genügend Memory auszurüsten, da das RAM in der Regel zum limitierenden Faktor wird wenn der PC sein Lebensende erreicht.

Notebooks müssen früher ersetzt werden als Desktops, aber auch hier liegt die durchschnittliche Nutzungsdauer bei 4.3 Jahren.

Damit empfiehlt es sich, die Desktops auf fünf Jahre und Notebooks auf vier Jahre abzuschreiben.

 


Mehr PC als Benutzer

Mit durchschnittlich 1.16 PC pro Benutzer verfügen die Firmen über mehr PC als Mitarbeitende

Ein immer wieder gerne diskutierter Wert ist die Anzahl PC pro Benutzer. Im Schnitt verfügt jeder Benutzer über 1.16 PC wenn sämtliche PC (Desktops und Notebooks) durch die Anzahl Benutzer dividiert werden.

Idealerweise verfügt jeder Benutzer genau über einen PC und die Firma erzielt ein Verhältnis von 1:1 resp. 1.0 PC pro Benutzer. Werden Ersatz- und Lagergeräte jedoch auch dazu gezählt und verfügen einige Benutzer z.B. über einen Desktop und einen Notebook, wird offensichtlich, dass der Wert schnell über 1.0 zu liegen kommt.

Werte bis 1.1 PC pro Benutzer sind gut und bis 1.2 PC pro Benutzer noch akzeptabel. Bei hohen Werten ist zu berücksichtigen, dass die meisten Unternehmen die Microsoft-Lizenzen z.B. pro PC und nicht pro Benutzer bezahlen müssen und sich so ein hohes Verhältnis nicht nur in höheren Hardware- sondern ebenfalls in höheren Lizenzkosten äussert.

Übrigens: Es gibt auch Firmen mit einem Verhältnis unter 1.0. Dies wird z.B. in Call Center erreicht, wo sich mehrere Benutzer einen PC teilen, da sie in verschiedenen Schichten arbeiten.

 


Immer weniger Mail-Betreuer notwendig

Im Durchschnitt betreut ein Mail-Spezialist 3'900 Benutzer

Wird die Anzahl der Benutzer durch die Anzahl der Mail-Spezialisten geteilt, resultiert ein Verhältnis von 3'900 zu 1. Bei einer kleineren IT hat der Mail-Spezialist resp. die Mail-Spezialistin noch andere Aufgaben und betreut das Mailsystem z.B. nur zu 50%. Dann wird die Anzahl der Benutzer durch 0.5 dividiert.

Mail ist ein Gebiet, das sehr gut skaliert. D.h., dass grössere Mail-Infrastrukturen auf ein höheres Verhältnis kommen als kleinere Mail-Umgebungen. Damit ist ein Wert um die 2'000 Benutzer pro Mail-Spezialist für eine IT mit einigen Hundert Benutzern ein durchaus guter Wert, während eine IT mit 10'000 und mehr Benutzern hier auf einen Wert kommen muss, der deutlich über 3'900 liegt.

Der Wert über die Zeit stark gesteigert. So lag das Verhältnis im Jahr 2009 z.B. noch bei 2'600 und im Jahr 2004 erst bei 1'300. So ist anzunehmen, dass dieser Wert mit der Zeit noch weiter ansteigen wird.


Druckerkonsolidierung noch nicht überall umgesetzt

Nur gerade 5.4 Benutzer teilen sich einen Drucker

Mit nur gerade 5.4 Benutzern pro Drucker fällt der Durchschnittswert wesentlich tiefer aus als erwartet. Die schon lange propagierte Konsolidierung der Einzelplatzdrucker zu leistungsfähigen Multifunktionsprintern (MFP) schreitet langsamer und weniger konsequent voran als erwartet.

Firmen mit vielen kleineren Lokationen wie Banken und Versicherungen mit ihren Filialen haben hier natürlich einen Nachteil: Hohe Werte lassen sich nur in grösseren Gebäuden erreichen. Wenn nur einige wenige Mitarbeitende in einer kleinen Lokation arbeiten, ist es natürlich nicht möglich, auf hohe Werte zu kommen.

Apropos Banken: In der obigen Zahl sind nur Office-Drucker eingerechnet. Keine Kassendrucker oder andere Spezialdrucker.

Werte unter vier sind definitiv tief und wirklich gute Werte werden mit über 10 Benutzern pro Drucker erreicht. 

   

Ist Ihr Service Desk überlastet?

Üblich sind 6-10 Kontakte pro Benutzer im Jahr

Im Durchschnitt wenden sich die Benutzer 7.7 mal pro Jahr an das Service Desk. Dabei spielt es keine Rolle, ob der Kontakt per Telefon, E-Mail oder direkt über das Ticket System erfolgt.

Zudem betreffen die Anfragen sowohl Probleme/Fragen mit den Applikationen, dem PC-Arbeitsplatz als auch Bestellungen usw.

Werte über 10 Kontakte pro Benutzer im Jahr sind in der Regel ein Hinweis, dass die IT-Infrastruktur und/oder die Applikationen zu wenig stabil sind und die Benutzer gezwungen sind, sich wegen immer wieder auftauchenden Problemen an das Service Desk zu wenden. Hohe Werte werden ebenfalls erreicht, wenn sehr viele Changes durchgeführt werden.

Werte unter 6 Kontakte pro Benutzer im Jahr sind hingegen ein starker Hinweis darauf, dass entweder die Qualität des Service Desks ungenügend ist (z.B. ungenügende Erreichbarkeit, lange Wartezeiten, schlechte Lösungsrate usw.) und sich die Benutzer an weitere − z.T. nicht offizielle − Stellen wenden.