共查询到20条相似文献,搜索用时 390 毫秒
1.
Zusammenfassung. Softwareentwicklungsprozesse auf Basis von Phasenmodellen verlangen eine Ermittlung der Anforderungen zu Beginn der Entwicklung.
Die Anforderungen bilden die Basis für die nachfolgenden T?tigkeiten in der Entwicklung. Daher sind die Verfolgbarkeit der
Anforderungen durch die Softwareentwicklung und die überprüfung der korrekten Realisierung der Anforderungen wichtig. Dies
gilt insbesondere in sicherheitskritischen Anwendungsbereichen. Einerseits ist die Unified Modeling Language (UML) zur Zeit der Standard im Bereich der objektorientierten Software-Modellierung. Andererseits weist die UML Defizite in Bezug
auf die Verfolgbarkeit von Anforderungen auf. Im Folgenden werden mehrere L?sungsm?glichkeiten zur Behebung dieses Problems
diskutiert. Die Erweiterung des UML-Meta-Modells um eine Meta-Klasse Requirement wird im Detail vorgestellt.
Eingegangen am 22. Februar 2002 / Angenommen am 8. Mai 2002 相似文献
2.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer und S. Hagl 《Informatik - Forschung und Entwicklung》1999,14(1):16-23
Zusammenfassung. Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen.
Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999 相似文献
3.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献
4.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
5.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
6.
Stefanie Rinderle Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2002,17(4):177-197
Zusammenfassung. Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Gesch?ftsprozessen
einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei
müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen ?nderung ungest?rt weiterlaufen k?nnen,
etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schema?nderungen
– wo gewünscht und m?glich – auch auf die bereits (vielleicht in gro?er Zahl) laufenden Workflow-Instanzen übertragen werden
sollen. Dies bei Bedarf zu k?nnen – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn
ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Vertr?glichkeit
von Workflow-Instanzen mit einem ge?nderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte
(z.B. auch Schleifen und Datenflüsse) und damit zusammenh?ngender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage
für ein umfassendes ?nderungsmanagement geschaffen. Au?erdem wird aufgezeigt, wie der Benutzer bei der Migration vertr?glicher
Instanzen auf das neue Schema konkret unterstützt werden kann.
ID="*" Diese Arbeit wurde im Rahmen des Projekts „?nderungsmanagement in adaptiven Workflow-Management-Systemen” der Deutschen
Forschungsgemeinschaft (DFG) erstellt. 相似文献
7.
Judith Gebauer und Markus Raupp 《Informatik - Forschung und Entwicklung》2000,15(4):215-225
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und
f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen,
da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung
und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern
in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse
nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung
notwendigen individuellen Aufwendungen ergibt.
Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren
zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und
andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender
Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen
zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird
notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung
des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen.
Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in
jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen.
Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000 相似文献
8.
Bernhard Westfechtel 《Informatik - Forschung und Entwicklung》2001,16(3):125-144
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t
kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten
und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken
von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen)
werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation
generiert, die auf programmierten Graphersetzungsregeln basiert.
Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001 相似文献
9.
H. Evers T. Weing?rtner T. Salb A. Mayer C. Gie? H.P. Meinzer und R. Dillmann 《Informatik - Forschung und Entwicklung》1999,14(1):9-15
Zusammenfassung. Der vorliegende Artikel beschreibt aktuelle Ans?tze zur Visualisierung und weiteren Bearbeitung medizinischer Volumendaten.
Die Methodik verfolgt das Ziel, die pr?operative Planung chirurgischer Eingriffe zu unterstützen, in dem Volumendaten interaktiv
visualisiert und Gewebe wie auch funktionelle Einheiten simuliert werden. Eingebettet in ein Radiologiesystem kann der Benutzer
mit den Visualisierungen im dreidimensionalen Raum interagieren. Ein hybrider Ansatz erlaubt die Integration von oberfl?chen-
und volumenorientierten Objektmodellen. Die Client/Server Architektur erlaubt die Nutzung zentraler, leistungsf?higer Ressourcen
zur Berechnung der Volumenvisualisierung und Methoden der Bildverarbeitung.
Eingegangen am 11. Juli 1998 / Angenommen am 7. Januar 1999 相似文献
10.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer S. Hagl 《Informatik - Forschung und Entwicklung》1999,19(4):16-23
Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen. 相似文献
11.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
12.
Bernhard Sch?lkopf Klaus-Robert Müller Alexander J. Smola 《Informatik - Forschung und Entwicklung》1999,50(4):154-163
Dieser Beitrag erl?utert neue Ans?tze und Ergebnisse der statistischen Lerntheorie. Nach einer Einleitung wird zun?chst das Lernen aus Beispielen vorgestellt und erkl?rt, dass neben dem Erkl?ren der Trainingdaten die Komplexit?t von Lernmaschinen wesentlich für den Lernerfolg ist. Weiterhin werden Kern-Algorithmen in Merkmalsr?umen eingeführt, die eine elegante und effiziente Methode darstellen, verschiedene Lernmaschinen mit kontrollierbarer Komplexit?t durch Kernfunktionen zu realisieren. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), die Kernfunktionen zur Sch?tzung von Funktionen verwenden, oder Kern-PCA (principal component analysis), die Kernfunktionen zur Extraktion von nichtlinearen Merkmalen aus Datens?tzen verwendet. Viel wichtiger als jedes einzelne Beispiel ist jedoch die Einsicht, dass jeder Algorithmus, der sich anhand von Skalarprodukten formulieren l?sst, durch Verwendung von Kernfunktionen nichtlinear verallgemeinert werden kann. Die Signifikanz der Kernalgorithmen soll durch einen kurzen Abriss einiger industrieller und akademischer Anwendungen unterstrichen werden. Hier konnten wir Rekordergebnisse auf wichtigen praktisch relevanten Benchmarks erzielen. 相似文献
13.
Stefan Conrad 《Informatik - Forschung und Entwicklung》2002,17(3):101-111
Zusammenfassung. Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung
des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein
integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige
Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der
Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben,
bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken
und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die
aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen
schlie?t dieser Beitrag.
Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002 相似文献
14.
Wolfgang K?fer Norbert Ritter und Harald Sch?ning 《Informatik - Forschung und Entwicklung》1998,13(1):1-17
Zusammenfassung . Schwerpunkte einer Datenbank-Unterstützung von technischen Entwurfsanwendungen sind eine geeignete Ablaufkontrolle sowie
ein geeignetes Datenmodell. Letzteres mu? Versionen komplexer Objekte verwalten k?nnen. Um aus der Gesamtmenge der in einer
Datenbank enthaltenen Versionen konsistente Einheiten (Mengen ‚kompatibler’ Versionen) hervorheben zu k?nnen, werden geeignete
Konfigurierungskonzepte ben?tigt. Dieses Papier gibt eine Klassifikation verschiedener DB-bezogener Konfigurierungsans?tze,
bewertet diese und begründet damit die Wahl, die im Rahmen des Objekt- und Versionsdatenmodells OVM hinsichtlich des zu unterstützenden
Konfigurierungskonzeptes getroffen wurde. Wir werden argumentieren, da? insbesondere die Flexibilit?t, die das gew?hlte Konzept
sowohl hinsichtlich der Definition von Konfigurationstypen als auch hinsichtlich des Anlegens von Konfigurationen bietet,
zu einer besseren Unterstützung von technischen Entwurfsanwendungen als in bestehenden objekt-orientierten Systemen führt.
Eingegangen am 14. Oktober 1996/Angenommen am 27. Oktober 1997 相似文献
15.
Albrecht Schmidt und Hans-Werner Gellersen 《Informatik - Forschung und Entwicklung》2001,16(4):213-224
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation
auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten
Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene
Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit
Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung
und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf
aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich
eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren
Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur
Vereinfachung der Anwendungsentwicklung beitr?gt.
Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001 相似文献
16.
Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》1998,13(4):217-226
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere
konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender
erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei
der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei
auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt.
Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998 相似文献
17.
Hartmut Ehrig und Martin Gro?e-Rhode 《Informatik - Forschung und Entwicklung》2001,16(2):110-117
Zusammenfassung. Der Softwareanteil in technischen Systemen bekommt einen immer h?heren Stellenwert. Für einen durchg?ngigen und wartbaren
Entwurf der Software sind Spezifikationstechniken erforderlich, die von ingenieurwissenschaftlichen Ablaufbeschreibungen bis
zu (objektorientierten) Softwaremodellen reichen. Wesentlich ist dabei, solche Techniken zu integrieren, um zu einem durchg?ngigen
Systemmodell zu gelangen. Dies ist Gegenstand des DFG-Schwerpunktprogramms „Integration von Techniken der Softwarespezifikation
für ingenieurwissenschaftliche An- wendungen”, in dem Ingenieure und Informatiker in vierzehn Forschungsprojekten gemeinsam
an der Entwicklung integrierter Methoden zur Softwarespezifkation vornehmlich in den Bereichen Produktionsautomatisierung
und Verkehrsleittechnik arbeiten. In diesem Artikel geben wir einen überblick über die Ergebnisse der ersten zwei Jahre des
Schwerpunktprogramms und dessen Ziele für den weiteren Verlauf von vier Jahren.
相似文献
18.
Steffen E. Seufert 《Informatik - Forschung und Entwicklung》2002,17(1):1-11
Zusammenfassung. In diesem Beitrag wird ein formaler Ansatz zur Ableitung von Zugriffsrechten auf der Basis eines formalen Organisationsmodells
vorgestellt. Hierzu wird der Ansatz der rollenbasierten Zugriffskontrolle (engl. Role-Based Access Control, kurz RBAC) um die M?glichkeit erweitert, Aufbauorganisationen zu modellieren. Der Vorteil gegenüber rollenbasierten Ans?tzen mit einfachen
Rollenhierarchien ist die klare Struktur, die einem Zugriffskontrollmodell durch die Organisationsform aufgepr?gt wird. Des
Weiteren k?nnen organisatorische Regelungen, wie z.B. Urlaubsvertretung oder Weisungsbefugnis, direkt im Modell hinterlegt
werden. Aufwendig zu pflegende und h?ufig inkonsistente Rollenkataloge werden obsolet. Sicherheitsstrategien mit unpr?zisen
Vorgaben lassen sich mittels der vorgestellten Technik der sog. `Kompetenzerweiterung' umsetzen. Das zugrundeliegende Paradigma
des vorgestellten Ansatzes unterscheidet sich stark von anderen Ans?tzen mit statischer Autorisation. Nutzer k?nnen sich Zugriffsrechte
in fest definierten Grenzen selbstverantwortlich zuteilen, wobei jedoch eine nachtr?gliche Kontrolle stark vereinfacht und
damit praktikabel wird.
Eingegangen am 22. Februar 2001 / Angenommen am 22. Mai 2001 相似文献
19.
Zusammenfassung. In der vorliegenden Arbeit wird ein mehrf?dig superskalarer Prozessor im Hinblick auf Multimediaverarbeitung entworfen und
mit einem Multimediaprogramm als Last getestet. Neu ist hierbei die Kombination von Multimediabefehlen mit der mehrf?digen
Prozessortechnik und deren Evaluierung mit einer realistischen Last aus dem Multimediabereich. Diese Last besteht aus einem
handoptimierten MPEG-2-Video-Decodierungsalgorithmus, der nicht nur intensiv Multimediabefehle, sondern durch kooperative
Mehrf?digkeit auch grobk?rnige Parallelit?t nutzt. Verschiedene Konfigurationen des vorgeschlagenen Prozessors werden untersucht,
um potentielle Flaschenh?lse zu identifizieren und soweit m?glich zu eliminieren. Es zeigt sich, dass ein mehrf?dig superskalarer
Prozessor mit Multimediaerweiterungen in der Lage ist, einen um einen Faktor drei h?heren IPC-Wert (Instructions per Cycle)
zu erreichen als ein gleichwertiger Superskalarprozessor, der nur einen Kontrollfaden gleichzeitig ausführt.
Eingegangen am 4. April 2000 / Angenommen am 26. Juli 2000 相似文献
20.
Xiaorong Huang Manfred Kerber Michael Kohlhase Erica Melis Dan Nesmith J?rn Richts und J?rg Siekmann 《Informatik - Forschung und Entwicklung》1996,11(1):20-26
Zusammenfassung.
Die Beweisentwicklungsumgebung -Mkrpsoll
Mathematiker bei einer ihrer
Hauptt?tigkeiten, n?mlich dem Beweisen mathematischer Theoreme
unterstützen. Diese Unterstützung mu? so komfortabel sein,
da? die
rechnergestützte Suche nach formalen Beweisen leichter und insbesondere
weniger aufwendig ist, als ohne das System. Dazu mu? die verwendete
Objektsprache ausdrucksstark sein, man mu? die M?glichkeit haben, abstrakt
über Beweispl?ne zu reden, die gefundenen Beweise müssen in einer am
Menschen orientierte Form pr?sentiert werden und vor allem mu? eine
effiziente Unterstützung beim Füllen von Beweislücken zur Verfügung
stehen. Das im folgenden vorgestellte $\Omega$-Mkrp-System ist
der Versuch einer
Synthese der Ans?tze des vollautomatischen, des interaktiven und des
planbasierten Beweisens. Dieser Artikel soll eine übersicht über unsere
Arbeit an diesem System geben.
Eingegangen am 24. Juni 1994 / Angenommen am 3. November 1995 相似文献