共查询到20条相似文献,搜索用时 484 毫秒
1.
Zusammenfassung. Im Zentrum der Betrachtungen zum DNA-Computing steht die Frage nach den Chancen und Grenzen dieses neuen Berechnungsmodells,
nachdem in den letzten Jahren eine rasante Entwicklung auf das Thema aufmerksam machte. Neben beachtlichen theoretischen Untersuchungen
zum “Rechnen im Reagenzglas” werden auch laborpraktische Implementierungen favorisiert. An der TU Dresden wurde in interdisziplin?rer
Arbeit ein Integer-Rucksackproblem mittels eines DNA-Algorithmus im Labor gel?st und dabei eine Vielzahl molekularbiologischer
Operationen analysiert. Mit Hilfe dieses Satzes von Operationen gelang eine universelle und labornahe Modellierung des DNA-Computing.
Hierbei angewandte Techniken und Methoden werden vorgestellt und bewertet. Die Beschreibung des DNA-Algorithmus zeigt, wie
sich Einzeloperationen vorteilhaft zu Operationsfolgen zusammensetzen lassen und gemeinsam mit einer geeigneten DNA-Kodierung
der Eingangsdaten zur L?sung des Problems im Labor führen. Erstmalig wurden hierbei natürliche Zahlen verarbeitet. Die Arbeitsgemeinschaft
DNA-Computing Dresden konzentriert sich auf Aufgabenstellungen, die formale Modelle des DNA-Computing mit überzeugenden Laborimplementierungen
verbinden.
Eingegangen am 14. Februar 2000 / Angenommen am 26. Oktober 2000 相似文献
2.
H. Gründer K. Geihs T. Knape und F. Baumert 《Informatik - Forschung und Entwicklung》1998,13(1):26-37
Zusammenfassung. Aus Modellierungs- und Implementationssicht ergeben sich unterschiedliche Anforderungen an das Objektmodell in verteilten
Systemen. Einerseits stehen Objekteigenschaften wie Datenabstraktion, Datenkapselung, Modularit?t und Zugriffschutz im Vordergrund.
Andererseits stellen sich Fragen der implementationstechnischen Umsetzung der r?umlichen und zeitlichen Entkopplung, der Parallelit?t,
der Substitution, der Konstruktion und der Evolution von Objekten bzw. von Teilen eines Objektes. Letztgenannte Anforderungen
resultieren aus der Verteilung und der Systemdynamik, die nicht nur verteilten Systemen eigen ist.
Wir stellen in diesem Beitrag ein Konzept vor, das es erlaubt, Objekte in verteilten Systemen flexibel implementieren und
konfigurieren zu k?nnen. Besonderes Gewicht legen wir auf die Unterstützung des Objektentwicklers und -implementierers, ohne
auf die Modellierungsvorzüge des Objektmodells zu verzichten. Wir diskutieren die Anforderungen und leiten daraus unser Entkopplungskonzept
für verteilte Objektsysteme ab. Auf der Basis der CORBA wurde ein Prototyp erstellt, der die Umsetzung dieser Anforderungen
demonstriert.
Eingegangen am 1. Juli 1997 / Angenommen am 6. Februar 1998 相似文献
3.
Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》1998,13(4):217-226
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere
konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender
erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei
der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei
auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt.
Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998 相似文献
4.
《Informatik - Forschung und Entwicklung》2000,15(2):92-109
Zusammenfassung. Alle Informationssysteme ben?tigen und erzeugen Daten. Kurz: Jedes System ben?tigt eine Datenversorgung. In dieser Arbeit
charakterisieren wir deshalb Informationssysteme hinsichtlich ihrer Datenversorgung und diskutieren m?gliche Ans?tze. Der
Schwerpunkt liegt auf datenintensiven Systemen, die viele Daten lesen und schreiben. Als Anwendungsszenario dienen uns Entwurfsumgebungen
und die Modellierung von Produktdaten über den STEP-Standard (ISO 10303). Nach einer Klassifikation von Datenquellen stellen
wir verschiedene Datenversorgungsstrategien vor, die auf dem OMG-Standard CORBA basieren. Sie werden Java-basierten Verfahren
im Bereich des Intra-/Internets gegenübergestellt. Zur Evaluierung ausgew?hlter Verfahren dient uns ein modularer Prototyp,
der auf der von uns entwickelten und mittlerweile standardisierten Anbindung der SDAI-Schnittstelle von STEP an die Sprache
Java basiert.
Eingegangen am 12. Januar 2000 / Angenommen am 23. M?rz 2000 相似文献
5.
Die Sch?tzung des Aufwands für die Erstellung oder die überarbeitung von grossen Softwaresystemen stellt immer noch ein betr?chtliches
Risiko dar. Dieses versch?rft sich noch weiter, wenn wie im vorliegenden Fall das Projekt auf Festpreisbasis, d.h. ohne M?glichkeit
zu Budgetnachforderungen w?hrend des Projekts selbst, abzuwickeln ist. Dieser Beitrag beschreibt die Erfahrungen mit der Sch?tzung
und vor allem der Nutzung der detailliert ermittelten Produktivit?tsmasse in einem grossen Konversionsprojekt, bei dem 350
Assembler-Programme aus dem Wertpapierbereich einer Bankorgansiation mit unver?nderter Funktionalit?t nach COBOL zu konvertieren
waren. Dabei wurden w?hrend des Projekts die bereits vorliegenden Produktivit?tszahlen genutzt, um neben einer weiteren Optimierung
der Verfahren und Abl?ufe auch die Sch?tzung bez. der noch zu bearbeitenden Arbeitspakete weiter zu verbessern. Es hat sich
auch in diesem Projekt gezeigt, dass auch einfachere Sch?tzans?tze tragen, wenn sie denn auf den Erfahrungen der eigenen Projektorganisation
basieren. Allgemeine algorithmische Ans?tze sind zwar als grober Anhaltspunkt brauchbar, ersetzen aber nicht die eigenen Zahlenbasen.
Diese in jedem Projekt immer wieder konsequent und detailliert zu ermitteln, bleibt die vorrangige Aufgabe zur Unterstützung
der Sch?tzung weiterer Projekte. 相似文献
6.
Albrecht Schmidt und Hans-Werner Gellersen 《Informatik - Forschung und Entwicklung》2001,16(4):213-224
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation
auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten
Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene
Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit
Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung
und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf
aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich
eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren
Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur
Vereinfachung der Anwendungsentwicklung beitr?gt.
Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001 相似文献
7.
Alexander Schill Thomas Springer und Thomas Ziegert 《Informatik - Forschung und Entwicklung》2001,16(4):200-212
Zusammenfassung. Die Integration mobiler Rechner in bestehende Netze erfordert eine umfassende Unterstützung. Die Hauptgründe dafür sind die
Vielfalt der eingesetzten Technologien sowie fehlende Konzepte in den bestehenden Systemen. In diesem Artikel werden M?glichkeiten
zur system- und anwendungsseitigen Unterstützung mobiler verteilter Systeme diskutiert. Nach einer kurzen Einführung in die
Problemstellungen des Forschungsgebietes werden Ans?tze für eine systemseitige Unterstützung mobiler Anwendungen und Dienste
anhand einer Softwareplattform beschrieben. Danach wird ein Modell zur Aufteilung mobiler Anwendungen vorgestellt, das verschiedene
system- und anwendungsseitige Unterstützungsmechanismen integriert. Abschlie?end wird das Modell zu einem Ansatz auf Basis
von Software-Komponenten verallgemeinert. Die Darstellung erfolgt anhand von Beispielsystemen, an deren Entwicklung die Autoren
ma?geblich beteiligt waren und sind.
Eingegangen am 31. Januar 2001 / Angenommen am 6. September 2001 相似文献
8.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
9.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
10.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
11.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer und S. Hagl 《Informatik - Forschung und Entwicklung》1999,14(1):16-23
Zusammenfassung. Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen.
Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999 相似文献
12.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
13.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer S. Hagl 《Informatik - Forschung und Entwicklung》1999,19(4):16-23
Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen. 相似文献
14.
Friedrich Summann 《Informatik - Forschung und Entwicklung》1998,13(3):139-146
Zusammenfassung . Die Bibliothek der Universit?t Bielefeld hat im Zuge der technischen Entwicklung ihr bisher NOVELL-basiertes Informationsnetz
auf eine Internet-Basis umgestellt. Die Benutzer innerhalb und au?erhalb der Bibliothek arbeiten mit ihrem Web-Browser an
ihrem Arbeitsplatz und nutzen das elektronische Dienstleistungsangebot. Dazu geh?ren der Nachweis von globalen und lokalen
Internetquellen, selbsterstellte Datenbanken (Katalog, Zeitschriftentitel- und Artikelnachweis), lokal installierte Fremdanwendungen
(Silverplatter-Datenbanken) und digitale Dokumente (elektronische Zeitschriften, digitalisierte Buchbest?nde, Hochschulschriften).
MS-DOS- und Windows-Anwendungen (überwiegend CD-ROM-Datenbanken) sind über Windows-NT-Software (WinCenter) eingebunden. Im
Laufe der Entwicklung hat sich die Integration der Einzelbestandteile als wichtigster Schwerpunkt herauskristallisiert. Dabei
werden nahtlose überg?nge zwischen unterschiedlichen Anwendungen (Anbindung externer Datenbanken an die Dokumentlieferung)
und Verknüpfungen zwischen dem Nachweis von Literatur und dem elektronischen Abruf des Dokuments (insbesondere bei Zeitschriftenartikeln)
realisiert. über einen praxisorientierten Ansatz wird versucht, den Weg zur digitalen Bibliothek voranzutreiben.
Eingegangen am 19. Januar 1998 / Angenommen am 3. August 1998 相似文献
15.
Volker Gruhn 《Informatik - Forschung und Entwicklung》1996,11(2):94-101
Zusammenfassung. In diesem Artikel wird ein Ansatz zur Entwicklung von Software, die auf die Unterstützung interpersoneller Gesch?ftsprozesse
abzielt, vorgestellt. Dieser Ansatz basiert auf der Modellierung der zu unterstützenden Gesch?ftsprozesse, auf der Analyse
von Gesch?ftsproze?modellen und auf der Durchführung realer Gesch?ftsprozesse auf Basis dieser Modelle. Der FUNSOFT-Netz-Ansatz
wird als Realisierung des genannten Vorgehens vorgestellt. Seine Anwendung wird mit Hilfe eines Beispiels aus dem Bereich
der Bau- und Wohnungswirtschaft er?rtert.
Eingegangen am 15. April 1995 / Angenommen am 11. Dezember 1995 相似文献
16.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
17.
Christoph Gollmick und Uta St?rl 《Informatik - Forschung und Entwicklung》2002,17(4):157-166
Zusammenfassung. Die st?ndig wachsende Menge der in Datenbanksystemen verwalteten Daten und steigende Verfügbarkeitsanforderungen verlangen
die Entwicklung immer schnellerer und effizienterer Backup- und Re-covery-Verfahren. Die Ausnutzung von Parallelit?t beim
Backup und Restore ist dabei einer von verschiedenen “intelligenten” L?sungsans?tzen, die nicht allein auf schnellere Hardware
setzen, sondern helfen, eine bestehende Infrastruktur optimal auszunutzen. Der Beitrag stellt ein Puffer-Proze?-Modell vor,
mit dessen Hilfe parallele Backup- und Restore-Algorithmen systematisch abgeleitet werden k?nnen. Eine definierte Auswahl
von Algorithmen wird anhand praxisbezogener Kriterien bewertet und klassifiziert (inklusive Einordnung der wichtigsten DBMS-Produkte).
Me?ergebnisse prototypisch implementierter Algorithmen schlie?lich belegen die Anwendbarkeit des Puffer-Proze?-Modells zur
Implementierung effizienter paralleler Backup- und Restore-Algorithmen.
Eingegangen am 31. Januar 2002 / Angenommen am 5. Juli 2002 相似文献
18.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
19.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
20.
Judith Gebauer und Markus Raupp 《Informatik - Forschung und Entwicklung》2000,15(4):215-225
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und
f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen,
da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung
und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern
in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse
nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung
notwendigen individuellen Aufwendungen ergibt.
Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren
zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und
andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender
Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen
zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird
notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung
des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen.
Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in
jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen.
Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000 相似文献