Beschreibung
Immer mehr wichtige Industriezweige werden durch Software dominiert und realisieren ein rasant wachsendes Dienstleistungsspektrum auf Basis des Internets, man denke nur an die Unterhaltungsindustrie, den Buchhandel oder die Telekommunikationsindustrie. Aber auch Branchen wie die Automobilindustrie, die bisher weitgehend von der Mechanik und der Elektrotechnik dominiert wurden, müssen sich der Herausforderung stellen, dass Software große Teile der Wertschöpfung und damit auch des Ertrags abgreifen wird. Damit einhergehend nimmt die Bedeutung von Software-Kompetenz enorm zu und die Messung und Bewertung von Software spielt hierbei eine wichtige Rolle: Software-Chancen müssen erkannt, Software-Risiken analysiert und vermieden werden. Die Software-Messung dient dem besseren Verständnis software-basierter Systeme und Services und der Beurteilung ihrer Potentiale und Einsatzrisiken. Hinzu kommt, dass es mittlerweile verhältnismäßig einfach ist, massive Datenbestände in den unterschiedlichsten Anwendungsbereichen aufzubauen. Dies eröffnet zahlreiche Analysemöglichkeiten, beispielsweise das Erkennen von Gesetzmäßigkeiten oder die Anwendung komplexer Diagnoseverfahren. Sehr wichtig ist, möglichst genau zu überlegen, welche Datenbestände gebraucht werden, um die jeweiligen Informationsbedürfnisse zu befriedigen und wertvolle Informationen zu gewinnen. Hier spielt die zielorientierte Definition von Metriken eine entscheidende Rolle. Aktuelle Forschungsprogramme zu den Themen "Big Data" und "Data to Intelligence" und "Internet of Things" unterstreichen die Bedeutung der Thematik. Auch im Bereich der Qualitätsmodellierung gewinnen Messverfahren an Bedeutung, da viele Systemklassen gerade neu definiert werden. Ein Beispiel sind die sogenannten "eingebettete Systeme". Solche Systeme wird es im eigentlichen Sinne in Zukunft kaum noch geben, da sie sich mit anderen Systemen oder Clouds vernetzten müssen (man denke z.B. an mobile Software-Updates für Autos, wie sie Tesla bereits ermöglicht). Dies hat nicht nur Konsequenzen in Bezug auf die Sicherheit, sondern ändert das gesamte Entwicklungsparadigma Alte Qualitätsmodelle und Standards werden unbrauchbar und neue müssen definiert werden. Software-Messverfahren werden hierbei einen entscheidenden Beitrag liefern. Auch die Weiterentwicklung von Messverfahren geht voran: Konzentrierte sich die Software-Messung bisher vorwiegend auf technische Fragestellungen, kommt man zunehmend nicht mehr darum herum, technische Aspekte mit wirtschaftlichen Aspekten zu verknüpfen. Software-Engineering- Entscheidungen sind zunehmend keine rein technischen Entscheidungen mehr. Beispielsweise kann der verfügbare Speicher nicht mehr als Konstante betrachtet werden, die durch die Anzahl der verfügbaren Datenserver einer Organisation begrenzt ist. Datenresourcen kann man heutzutage ohne größere technische Anstrengungen kaufen und per Internet bereitstellen lassen. Die Frage nach der Größe des Speicherplatzes erfordert messbasierte Entscheidungsmodelle, die technische und wirtschaftliche Aspekte integrieren. Moderne Messverfahren wie GQM+Strategies können hiermit umgehen. Weitere Entwicklungen im Hinblick auf Software-Messverfahren liegen unter anderem in der Kopplung von modernen Visualisierungs- und Messverfahren und der Hybridmessung, d.h., der KOpplung qualitativer und quantitativer Messverfahren. Die MetriKon 2012 bietet eine umfassendes und interessantes Programm, das sich durch Beiträge wissenschaftlicher Forschung und Erfahrungsberichte aus der industriellen Anwendungspraxis auszeichnet. Viele der oben erwähnten Trends, die sich bereits in den letzten Jahren abgezeichnet haben, werden im diesjährigen Programm durch Beispiele und Erfahrungsberichte aus der Praxis unterlegt. Dies zeigt die steigende Bedeutung von Messverfahren in nahezu allen Anwendungsfeldern. Die MetriKon ist der einzige Fachkongress seiner Art in Deutschland mit dem Schwerpunkt Messen und Bewerten und daher Treffpunkt für Spezialiste