共查询到20条相似文献,搜索用时 46 毫秒
1.
Brigitte Mathiak Andreas Kupfer und Karl Neumann 《Informatik - Forschung und Entwicklung》2005,20(1-2):24-32
Zusammenfassung Mit den XML-basierten Sprachen GML, XSLT und SVG lassen sich Geodaten nicht nur anwendungsorientiert modellieren, sondern
auch karten?hnlich visualisieren. In dieser Fallstudie zeigen wir das, indem wir realistische Geodatenbest?nde der Landesvermessungs?mter
zun?chst mit der Geography Markup Language (GML) nachmodellieren. So mit GML strukturierte Daten werden dann mit der Extensible
Stylesheet Language for Transformation (XSLT) auf Elemente der Sprache Scalable Vector Graphics (SVG) abgebildet. Dabei wird
der Prozess der kartografischen Visualisierung durch XSLT-Konstrukte modelliert und auch gleichzeitig implementiert. Als Ergebnis
erhalten wir Grafiken, die den entsprechenden Karten der Landes?mter zumindest nicht un?hnlich sind.
Using the XML-based languages GML, XSLT and SVG, we modeled German geo data and also visualized it in map-like graphics. This case study shows the feasibility of that approach, by modelling the data with the Geography Markup Language (GML). Then, the GML-structured data is mapped with the Extensible Stylesheet Language for Transformation (XSLT) to elements of the language Scalable Vector Graphics (SVG). The process of cartographical visualization is thus modelled through XSLT-constructs and at same time also implemented. The results are graphics, which share close ressemblance to the corresponding maps of the official offices.
CR Subject Classification I.3.3,I.3.5,I.6.5,I.7.2,J.2 相似文献
2.
Thomas Bauer 《Informatik - Forschung und Entwicklung》2004,4(Z1):74-86
Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann. 相似文献
3.
Die Sch?tzung des Aufwands für die Erstellung oder die überarbeitung von grossen Softwaresystemen stellt immer noch ein betr?chtliches
Risiko dar. Dieses versch?rft sich noch weiter, wenn wie im vorliegenden Fall das Projekt auf Festpreisbasis, d.h. ohne M?glichkeit
zu Budgetnachforderungen w?hrend des Projekts selbst, abzuwickeln ist. Dieser Beitrag beschreibt die Erfahrungen mit der Sch?tzung
und vor allem der Nutzung der detailliert ermittelten Produktivit?tsmasse in einem grossen Konversionsprojekt, bei dem 350
Assembler-Programme aus dem Wertpapierbereich einer Bankorgansiation mit unver?nderter Funktionalit?t nach COBOL zu konvertieren
waren. Dabei wurden w?hrend des Projekts die bereits vorliegenden Produktivit?tszahlen genutzt, um neben einer weiteren Optimierung
der Verfahren und Abl?ufe auch die Sch?tzung bez. der noch zu bearbeitenden Arbeitspakete weiter zu verbessern. Es hat sich
auch in diesem Projekt gezeigt, dass auch einfachere Sch?tzans?tze tragen, wenn sie denn auf den Erfahrungen der eigenen Projektorganisation
basieren. Allgemeine algorithmische Ans?tze sind zwar als grober Anhaltspunkt brauchbar, ersetzen aber nicht die eigenen Zahlenbasen.
Diese in jedem Projekt immer wieder konsequent und detailliert zu ermitteln, bleibt die vorrangige Aufgabe zur Unterstützung
der Sch?tzung weiterer Projekte. 相似文献
4.
Karsten Weihe 《Informatik - Forschung und Entwicklung》1998,13(2):61-71
Zusammenfassung. In diesem Artikel wird ein Konzept besprochen, mit dem flexible Algorithmen zur Auswertung von Anfragen an tabellarische
Datenstrukturen typsicher in objektorientierten Programmiersprachen implementiert werden k?nnen. Kernpunkt ist eine strikte
Trennung zwischen dem Zugriff auf Zeilen und Spalten. Gegenüber einem reinem Iteratormodell werden Anwendungsprogramme damit
nicht nur von der internen Organisation der zugrundeliegenden Sequenzen entkoppelt, sondern auch von den Tupeltypen der Tabellen.
Dadurch wird es m?glich, hohe Laufzeitflexibilit?t mit weitgehender statischer Typsicherheit zu verbinden.
Eingegangen am 1. August 1997 / Angenommen am 7. M?rz 1998 相似文献
5.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
6.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
7.
Thomas Bauer 《Informatik - Forschung und Entwicklung》2004,19(2):74-86
Zusammenfassung. Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.CR Subject Classification:
K.6.1, H.4.1Eingegangen am 9. Dezember 2003 / Agenommen am 24. März 2004, Online publiziert: 1. Juli 2004 相似文献
8.
Albert Endres 《Informatik - Forschung und Entwicklung》2006,20(4):236-237
Zusammenfassung So wie viele andere Fachgebiete erzielt die Informatik-Paxis ihre methodischen Fortschritte prim?r dadurch, dass sie aus Erfahrungen
lernt. Das gilt zun?chst und vor allem für die eigene Firma. Welche Erfahrungen zwischen Firmen übertragen werden k?nnen,
ist nicht immer genau vorherzusagen, da der Kontext, für den sie gelten, oft nicht vorhanden ist. Dennoch ist es eine Aufgabe
der Fachgesellschaften und der Fachmedien, in dieser Hinsicht Hilfen und Foren anzubieten. Die Herausgeber der Zeitschrift
Informatik – Forschung und Entwicklung (IFE) fühlen sich diesem Ziel verpflichtet und m?chten den Ideenaustausch zwischen
den Lesern f?rdern. Die folgenden Fragen k?nnen Projektbeteiligten helfen, einen Erfahrungsbericht so zu strukturieren, dass
er auch für Kollegen aus anderen Firmen von Interesse ist. Nicht alle Fragen treffen bei jedem Projekt zu. Ein derartiger
Bericht kann nach jeder Phase eines Projektes erstellt werden, sp?testens jedoch am Ende. Man spricht dann auch von einem
Post mortem. Die Herausgeber von IFE laden dazu ein, in dieser Rubrik weiterhin geeignete Berichte sowohl über Forschungs-
wie über Entwicklungsprojekte zu ver?ffentlichen. Bitte schicken Sie diese an das Sekretariat der Hauptherausgeber (Adresse:
siehe Autorenhinweise). 相似文献
9.
Hans-Jürgen Siegert 《Informatik - Forschung und Entwicklung》2008,22(4):237-266
Zusammenfassung Zusammen mit drei weiteren Artikeln, die den übergang vom Batch- zum Timesharing-Betrieb, das
Unternehmen und die Hardware des TR440 beschreiben, gibt dieser Text einen Rückblick auf Entwicklung
und Realisierung des deutschen Gro?rechners TR440 bei AEG-Telefunken und den Nachfolgefirmen. Dieser
Teil des Rückblicks besch?ftigt sich mit der Software und der Software-Entwicklung für den
TR440, insbesondere in den Jahren 1965 bis 1974. Es werden technische Highlights der Software behandelt
und Einblicke in die Software-Entwicklung selbst gegeben, insbesondere auch Hintergrundinformationen zu
Einflüssen, Verantwortungen und Entscheidungen. Der Artikel beginnt mit dem TR4, dem Vorg?nger
des TR440, und endet mit den Aktivit?ten für einen TR440-Nachfolger.
CR subject classification K.1 ; K.2 ; K.6 ; D.2 ; D.3 ; D.4 ; D.2.9 相似文献
10.
Stefan Dorendorf 《Informatik - Forschung und Entwicklung》2005,20(1-2):72-89
Stetig wachsende Datenmengen und hohe Verfügbarkeitsanforderungen an Datenbanken führen dazu, dass Wartungsarbeiten (wie z.B.
Datenbankreorganisationen) oft nicht mehr (oder nicht mehr vollst?ndig) offline in zur Verfügung stehenden Zeitfenstern durchgeführt werden k?nnen bzw. dass die Kosten oder die Behinderungen des normalen
Datenbankbetriebs bei online durchgeführten Wartungsarbeiten nicht mehr vernachl?ssigt werden k?nnen. Deshalb sollte vorab bestimmt (quantifiziert) werden,
ob der zu erwartende Nutzen den mit der Reorganisation verbundenen Aufwand rechtfertigt. Es ist daher wichtig, die Datenbankobjekte
zu lokalisieren und einzugrenzen, bei denen ein hoher Wartungsbedarf besteht. Weiterhin ist es wünschenswert, zun?chst den
durch Wartungsma?nahmen erreichbaren Nutzen vor ihrer Durchführung quantifizieren zu k?nnen. Dieser Nutzen ist auch von der
Workload abh?ngig, also von den gegen die Datenbankobjekte gerichteten Datenbankanweisungen und deren Ausführungsh?ufigkeiten.
Insbesondere der zur Workload-Abarbeitung anfallende I/O-Aufwand, der einen dominierenden Anteil am Gesamtaufwand ausmacht,
l?sst sich mit einer Datenbankreorganisation u.U. wesentlich beeinflussen (reduzieren). In diesem Beitrag wird eine Methode
vorgestellt, die es erm?glicht, die Auswirkungen einer Datenbankreorganisation auf den zur Workload-Abarbeitung notwendigen
I/O-Aufwand abzusch?tzen und damit den haupts?chlichen Nutzen der Reorganisation zu quantifizieren. über erste Erfahrungen
mit der Methode, die anhand von Beispielen gesammelt wurden, wird berichtet.
The permanent increasing amount of data and the requirement of high availability cause that maintenance of databases (e.g.
database reorganizations) often is not or not completely (off-line) possible in the available time spans. On-line database
reorganizations are often expensive and cumbersome during the normal database processing. To reduce performance impacts it
is important to locate the database objects that have a high level of disorganization and so a high need of maintenance. Furthermore,
it is desirable to be able to estimate the benefit of expensive maintenance operations before their processing. This benefit
depends on the degree of disorganization and on the instructions that are processed on the database objects (workload). In
particular, the costs for I/O-operations dominate the total costs for database operations. With database reorganizations it
is possible to reduce the I/O-costs. In this paper we present a method to calculate the benefit of database reorganizations
before the processing. The presented method allows to calculate the possible reduction of the I/O-cost for processing a given
workload caused by a database reorganization.
CR Subject Classification E.2,H.2.7,H.3.2,H.3.3 相似文献
11.
《Informatik - Forschung und Entwicklung》2006,21(1-2):105-113
Zusammenfassung Computersysteme, wie wir sie heute kennen, passen sich typischerweise nicht an den Benutzer und dessen Situation an. Erste Beispiele von Systemen, die durch den Bezug zur Realwelt den Kontext des Benutzers einbeziehen, sind Navigationssysteme, die unter Berücksichtigung der Position eines Benutzers und der Verkehrslage Richtungsanweisungen geben k?nnen. Damit innovative kontextbezogene Anwendungen m?glich werden, muss der Kontext, also der Zustand der Realwelt, durch Sensoren erfasst, in das Computersystem übermittelt und dort in Form dynamischer Umgebungsmodelle den Anwendungen zur Verfügung gestellt werden.Der von der Deutschen Forschungsgemeinschaft gef?rderte und im Januar 2003 an der Universit?t Stuttgart eingerichtete Sonderforschungsbereich SFB 627 ,,Umgebungsmodelle für mobile kontextbezogene Anwendungen“ [22] ist ein interdisziplin?rer Forschungsverbund von über 30 Wissenschaftlern. Diese erforschen Methoden und Konzepte für die Definition, Erstellung und Verwaltung von Umgebungsmodellen, durch die Anwendungen Zugriff auf Kontextinformationen erhalten. 相似文献
12.
Zusammenfassung. In der vorliegenden Arbeit wird ein mehrf?dig superskalarer Prozessor im Hinblick auf Multimediaverarbeitung entworfen und
mit einem Multimediaprogramm als Last getestet. Neu ist hierbei die Kombination von Multimediabefehlen mit der mehrf?digen
Prozessortechnik und deren Evaluierung mit einer realistischen Last aus dem Multimediabereich. Diese Last besteht aus einem
handoptimierten MPEG-2-Video-Decodierungsalgorithmus, der nicht nur intensiv Multimediabefehle, sondern durch kooperative
Mehrf?digkeit auch grobk?rnige Parallelit?t nutzt. Verschiedene Konfigurationen des vorgeschlagenen Prozessors werden untersucht,
um potentielle Flaschenh?lse zu identifizieren und soweit m?glich zu eliminieren. Es zeigt sich, dass ein mehrf?dig superskalarer
Prozessor mit Multimediaerweiterungen in der Lage ist, einen um einen Faktor drei h?heren IPC-Wert (Instructions per Cycle)
zu erreichen als ein gleichwertiger Superskalarprozessor, der nur einen Kontrollfaden gleichzeitig ausführt.
Eingegangen am 4. April 2000 / Angenommen am 26. Juli 2000 相似文献
13.
Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》1998,13(4):217-226
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere
konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender
erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei
der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei
auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt.
Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998 相似文献
14.
H. Evers T. Weing?rtner T. Salb A. Mayer C. Gie? H.P. Meinzer R. Dillmann 《Informatik - Forschung und Entwicklung》1999,24(5):9-15
Der vorliegende Artikel beschreibt aktuelle Ans?tze zur Visualisierung und weiteren Bearbeitung medizinischer Volumendaten. Die Methodik verfolgt das Ziel, die pr?operative Planung chirurgischer Eingriffe zu unterstützen, in dem Volumendaten interaktiv visualisiert und Gewebe wie auch funktionelle Einheiten simuliert werden. Eingebettet in ein Radiologiesystem kann der Benutzer mit den Visualisierungen im dreidimensionalen Raum interagieren. Ein hybrider Ansatz erlaubt die Integration von oberfl?chen- und volumenorientierten Objektmodellen. Die Client/Server Architektur erlaubt die Nutzung zentraler, leistungsf?higer Ressourcen zur Berechnung der Volumenvisualisierung und Methoden der Bildverarbeitung. 相似文献
15.
Jürgen Kalinski 《Informatik - Forschung und Entwicklung》1999,14(1):36-45
Zusammenfassung. Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale
Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von
denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant
unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten
Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut.
Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen
SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert,
hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut,
die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt.
Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998 相似文献
16.
Otto Rauh 《Informatik - Forschung und Entwicklung》1997,12(3):117-127
Zusammenfassung. Redundante Komponenten in Entity-Relationship-Schemata führen zu Speicherverschwendung und Fehlern bei der Nutzung der aus
dem Schema gewonnenen Datenbanken. Zwischen Schemaredundanz und dem Konzept der ableitbaren Komponenten besteht eine enge
Verbindung, denn redundante Schemakomponenten sind stets ableitbar. Andererseits ist nicht jede ableitbare Komponente auch
redundant. Es wird deshalb zun?chst das Verh?ltnis zwischen redundanten und ableitbaren Komponenten diskutiert und eine Klassifizierung
eingeführt, welche die Modellierer bef?higt, entbehrliche von nicht entbehrlichen Komponenten zu unterscheiden. Eine spezielle
Art ableitbarer Komponenten, die Verkettung von Beziehungsarten, wird anschlie?end mit allen ihren Erscheinungsformen vorgestellt.
Au?erdem werden Methoden diskutiert, die helfen k?nnen, Verkettungen aufzudecken.
Eingegangen am 30. Mai 1996 / Angenommen am 8. April 1997 相似文献
17.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
18.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
19.
Frank Steinfath Brigitta Lange und Klaus B?hm 《Informatik - Forschung und Entwicklung》1997,12(3):128-142
Zusammenfassung. Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige
Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen
Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als
Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind
dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird
au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t
zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es
werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge
unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern.
Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997 相似文献
20.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献