首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 800 毫秒
1.
Zusammenfassung.   Eine Restrukturierung eines gegebenen Datenbankschemas kann aus unterschiedlichen Gründen notwendig werden. So kann dadurch z.B. die Verst?ndlichkeit des Schemas verbessert werden. Im Bereich der relationalen Datenbanken steht die Normalisierungstheorie zur Verfügung, um z.B. Redundanz zu vermeiden. Der Normalisierung liegt dabei ein Begriff der ?quivalenz von Datenbankschemata zugrunde. Im Bereich der objektorientierten Datenbanken gibt es bislang kaum vergleichbare Ans?tze. In diesem Beitrag pr?sentieren wir daher einen Ansatz, mit dem Klassenhierarchien in objektorientierten Datenbankschemata in eine „normalisierte” Form transformiert werden k?nnen. Dazu mu? zun?chst eine extensionale Analyse durchgeführt werden, die die notwendigen Informationen über extensionale Beziehungen zwischen den gegebenen Klassen liefert. Anschlie?end wenden wir Konzepte der formalen Begriffsanalyse an, um eine „normalisierte” Klassenhierarchie abzuleiten. Eingegangen am 16. Januar 1999 / Angenommen am 3. Oktober 1999  相似文献   

2.
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits- und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden. Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert. Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999  相似文献   

3.
Zusammenfassung. In der Arbeit werden klausale Spezifikationen zur Beschreibung von Programmen auf der Ebene des funktionalen Entwurfs betrachtet. Die Axiome solch einer Spezifikation bestehen aus positiv/negativ bedingten Gleichungen, die neue Operatoren über einer fest eingebauten Algebra definieren. Wir definieren als Semantik von eine Algebra , die initial in der Klasse aller Modelle ist. Es wird ein Inferenzsystem angegeben, mit dem man die Gültigkeit von positiv/negativ bedingten Gleichungen in beweisen kann. Dieses Inferenzsystem erlaubt es auch, die Gültigkeit von Behauptungen zu widerlegen. Eingegangen am 19. Juli 1994 / Angenommen am 7. November 1995  相似文献   

4.
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt. Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998  相似文献   

5.
Zusammenfassung.   Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren, wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte. Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen. Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes, wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund. Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001  相似文献   

6.
Zusammenfassung. In diesem Beitrag wird ein formaler Ansatz zur Ableitung von Zugriffsrechten auf der Basis eines formalen Organisationsmodells vorgestellt. Hierzu wird der Ansatz der rollenbasierten Zugriffskontrolle (engl. Role-Based Access Control, kurz RBAC) um die M?glichkeit erweitert, Aufbauorganisationen zu modellieren. Der Vorteil gegenüber rollenbasierten Ans?tzen mit einfachen Rollenhierarchien ist die klare Struktur, die einem Zugriffskontrollmodell durch die Organisationsform aufgepr?gt wird. Des Weiteren k?nnen organisatorische Regelungen, wie z.B. Urlaubsvertretung oder Weisungsbefugnis, direkt im Modell hinterlegt werden. Aufwendig zu pflegende und h?ufig inkonsistente Rollenkataloge werden obsolet. Sicherheitsstrategien mit unpr?zisen Vorgaben lassen sich mittels der vorgestellten Technik der sog. `Kompetenzerweiterung' umsetzen. Das zugrundeliegende Paradigma des vorgestellten Ansatzes unterscheidet sich stark von anderen Ans?tzen mit statischer Autorisation. Nutzer k?nnen sich Zugriffsrechte in fest definierten Grenzen selbstverantwortlich zuteilen, wobei jedoch eine nachtr?gliche Kontrolle stark vereinfacht und damit praktikabel wird. Eingegangen am 22. Februar 2001 / Angenommen am 22. Mai 2001  相似文献   

7.
Zusammenfassung.   Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS) eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht. Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001  相似文献   

8.
Zusammenfassung.   Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999  相似文献   

9.
Zusammenfassung.   Im Zentrum der Betrachtungen zum DNA-Computing steht die Frage nach den Chancen und Grenzen dieses neuen Berechnungsmodells, nachdem in den letzten Jahren eine rasante Entwicklung auf das Thema aufmerksam machte. Neben beachtlichen theoretischen Untersuchungen zum “Rechnen im Reagenzglas” werden auch laborpraktische Implementierungen favorisiert. An der TU Dresden wurde in interdisziplin?rer Arbeit ein Integer-Rucksackproblem mittels eines DNA-Algorithmus im Labor gel?st und dabei eine Vielzahl molekularbiologischer Operationen analysiert. Mit Hilfe dieses Satzes von Operationen gelang eine universelle und labornahe Modellierung des DNA-Computing. Hierbei angewandte Techniken und Methoden werden vorgestellt und bewertet. Die Beschreibung des DNA-Algorithmus zeigt, wie sich Einzeloperationen vorteilhaft zu Operationsfolgen zusammensetzen lassen und gemeinsam mit einer geeigneten DNA-Kodierung der Eingangsdaten zur L?sung des Problems im Labor führen. Erstmalig wurden hierbei natürliche Zahlen verarbeitet. Die Arbeitsgemeinschaft DNA-Computing Dresden konzentriert sich auf Aufgabenstellungen, die formale Modelle des DNA-Computing mit überzeugenden Laborimplementierungen verbinden. Eingegangen am 14. Februar 2000 / Angenommen am 26. Oktober 2000  相似文献   

10.
Zusammenfassung.   Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben, bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen schlie?t dieser Beitrag. Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002  相似文献   

11.
Zusammenfassung.   Softwareentwicklungsprozesse auf Basis von Phasenmodellen verlangen eine Ermittlung der Anforderungen zu Beginn der Entwicklung. Die Anforderungen bilden die Basis für die nachfolgenden T?tigkeiten in der Entwicklung. Daher sind die Verfolgbarkeit der Anforderungen durch die Softwareentwicklung und die überprüfung der korrekten Realisierung der Anforderungen wichtig. Dies gilt insbesondere in sicherheitskritischen Anwendungsbereichen. Einerseits ist die Unified Modeling Language (UML) zur Zeit der Standard im Bereich der objektorientierten Software-Modellierung. Andererseits weist die UML Defizite in Bezug auf die Verfolgbarkeit von Anforderungen auf. Im Folgenden werden mehrere L?sungsm?glichkeiten zur Behebung dieses Problems diskutiert. Die Erweiterung des UML-Meta-Modells um eine Meta-Klasse Requirement wird im Detail vorgestellt. Eingegangen am 22. Februar 2002 / Angenommen am 8. Mai 2002  相似文献   

12.
Zusammenfassung. In industriellen Anwendungen bew?hren sich Roboter durch ihre hohe Pr?zision und Wiederholgenauigkeit. Ihr Einsatz in neuen Gebieten, wie z.B. in der Chirurgie unterliegt aber anderen Randbedingungen. Die Datenakquisition und Planung jedes Eingriffs mu? individuell für einen Patienten ausgeführt werden. Die pr?operative Planung einer Operation auf den komplexen Freiformfl?chen des Patienten ist nur mit der Unterstützung eines rechnerbasierten Planungssystems durchführbar. Durch eine integrierte intraoperative Instrumentennavigation wird sichergestellt, da? die geplanten Vorg?nge auch geometrisch richtig ausgeführt werden. Eine prototypische Roboterarbeitszelle dient zur Evaluierung der untersuchten Methoden und entwickelten Subsysteme. Die vorgestellten Arbeiten finden im Rahmen des Sonderforschungsbereiches 414: “Rechner- und sensorgestützte Chirurgie” statt, der eine enge interdisziplin?re Zusammenarbeit zwischen Ingenieuren, Medizinern und Naturwissenschaftlern erm?glicht. Eingegangen am 11. Juli 1998 / Angenommen am 21. Januar 1999  相似文献   

13.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

14.
Zusammenfassung.   Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern. Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997  相似文献   

15.
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen, da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung notwendigen individuellen Aufwendungen ergibt. Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen. Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen. Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000  相似文献   

16.
Zusammenfassung. Redundante Komponenten in Entity-Relationship-Schemata führen zu Speicherverschwendung und Fehlern bei der Nutzung der aus dem Schema gewonnenen Datenbanken. Zwischen Schemaredundanz und dem Konzept der ableitbaren Komponenten besteht eine enge Verbindung, denn redundante Schemakomponenten sind stets ableitbar. Andererseits ist nicht jede ableitbare Komponente auch redundant. Es wird deshalb zun?chst das Verh?ltnis zwischen redundanten und ableitbaren Komponenten diskutiert und eine Klassifizierung eingeführt, welche die Modellierer bef?higt, entbehrliche von nicht entbehrlichen Komponenten zu unterscheiden. Eine spezielle Art ableitbarer Komponenten, die Verkettung von Beziehungsarten, wird anschlie?end mit allen ihren Erscheinungsformen vorgestellt. Au?erdem werden Methoden diskutiert, die helfen k?nnen, Verkettungen aufzudecken. Eingegangen am 30. Mai 1996 / Angenommen am 8. April 1997  相似文献   

17.
Zusammenfassung.   Bei der iterativen, inkrementellen Software-Entwicklung werden Klassen sukzessive spezifiziert, implementiert bzw. ge?ndert oder erweitert, klassengetestet und zu einem ausführbaren Anwendungssystem integriert. Integrations- und Regressionstest stellen dabei besonders wichtige und h?ufig ausgeführte Testaktivit?ten dar, die zudem aufgrund der vielf?ltigen Interaktionsm?glichkeiten in objektorientierten Programmen sehr komplex sind. Integrations- und Regressionstest werden in der Literatur stets separat behandelt, obwohl sie durchaus ?hnliche Teilaktivit?ten beinhalten. Bestehende Ans?tze zum objektorientierten Integrationstest betrachten entweder strukturelle oder verhaltensorientierte Systembeschreibungen. In diesem Beitrag stellen wir das Klassen-Botschaftsdiagramm (KBD) vor, ein Struktur und Verhalten objektorientierter Programme gleicherma?en berücksichtigendes interaktionsbasiertes (Test-)Modell. Wir skizzieren Algorithmen zur ?nderungsanalyse, Ableitung einer Integrationsstrategie und Auswahl von Regressionstestf?llen nach der Modifikation bestehender Klassen. Abschlie?end werden die Ergebnisse einiger mit Smalltalk-80 Klassen durchgeführter Experimente zur Evaluierung des Verfahrens vorgestellt. Eingegangen am 14. Dezember 1999 / Angenommen am 19. Juni 2000  相似文献   

18.
Zusammenfassung.   Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie (Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie (Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten zurückgegriffen. Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999  相似文献   

19.
Zusammenfassung. Virtuelle Welten stellen Abstraktionen unserer realen Welt bzw. unserer Erfahrung mit der realen Umgebung dar. Diese Abstraktionen k?nnen Computeranimationen und interaktive 3D-Simulationen, aber auch Geschichten, Erz?hlungen und Tr?ume sein. Wir wollen sie in diesem Beitrag aus Sicht der Informatik betrachten, wo virtuelle Welten 3D-Szenen sind, die mit rechnerbasierten Techniken erzeugt werden. Die Anf?nge der rechnergenerierten virtuellen Welten waren Computeranimationen, die seit einigen Jahren kommerziell verfügbar sind. In den letzten wenigen Jahren hat sich die Technik der virtuellen Realit?t soweit entwickelt, da? zahlreiche Anwendungen zur visuellen Echtzeitpr?sentation von 3D-Objekten/R?umen realisiert werden k?nnen, die Walkthroughs genannt werden. Die Entwicklung geht nun in Richtung lebendiger virtueller Welten, in denen sich die virtuellen Objekte bewegen, ver?ndern und auf die Umgebung, inklusive den Benutzer, reagieren. Dieser Beitrag diskutiert diese Entwicklung und stellt die dazugeh?rigen Techniken und Methoden vor. Eingegangen am 5. September 1997 / Angenommen am 3. Februar 1998  相似文献   

20.
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen) werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation generiert, die auf programmierten Graphersetzungsregeln basiert. Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号