首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
Zusammenfassung.   Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS) eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht. Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001  相似文献   

2.
Zusammenfassung. Der vorliegende Artikel beschreibt aktuelle Ans?tze zur Visualisierung und weiteren Bearbeitung medizinischer Volumendaten. Die Methodik verfolgt das Ziel, die pr?operative Planung chirurgischer Eingriffe zu unterstützen, in dem Volumendaten interaktiv visualisiert und Gewebe wie auch funktionelle Einheiten simuliert werden. Eingebettet in ein Radiologiesystem kann der Benutzer mit den Visualisierungen im dreidimensionalen Raum interagieren. Ein hybrider Ansatz erlaubt die Integration von oberfl?chen- und volumenorientierten Objektmodellen. Die Client/Server Architektur erlaubt die Nutzung zentraler, leistungsf?higer Ressourcen zur Berechnung der Volumenvisualisierung und Methoden der Bildverarbeitung. Eingegangen am 11. Juli 1998 / Angenommen am 7. Januar 1999  相似文献   

3.
Zusammenfassung.   Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll. Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von bestimmten Inspektorengruppen untersucht. Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren. Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden. Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001  相似文献   

4.
Zusammenfassung.   Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999  相似文献   

5.
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem – an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur vermittelt. Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002  相似文献   

6.
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits- und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden. Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert. Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999  相似文献   

7.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

8.
Zusammenfassung.   Die Integration mobiler Rechner in bestehende Netze erfordert eine umfassende Unterstützung. Die Hauptgründe dafür sind die Vielfalt der eingesetzten Technologien sowie fehlende Konzepte in den bestehenden Systemen. In diesem Artikel werden M?glichkeiten zur system- und anwendungsseitigen Unterstützung mobiler verteilter Systeme diskutiert. Nach einer kurzen Einführung in die Problemstellungen des Forschungsgebietes werden Ans?tze für eine systemseitige Unterstützung mobiler Anwendungen und Dienste anhand einer Softwareplattform beschrieben. Danach wird ein Modell zur Aufteilung mobiler Anwendungen vorgestellt, das verschiedene system- und anwendungsseitige Unterstützungsmechanismen integriert. Abschlie?end wird das Modell zu einem Ansatz auf Basis von Software-Komponenten verallgemeinert. Die Darstellung erfolgt anhand von Beispielsystemen, an deren Entwicklung die Autoren ma?geblich beteiligt waren und sind. Eingegangen am 31. Januar 2001 / Angenommen am 6. September 2001  相似文献   

9.
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur Vereinfachung der Anwendungsentwicklung beitr?gt. Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001  相似文献   

10.
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.  相似文献   

11.
Der vorliegende Artikel beschreibt aktuelle Ans?tze zur Visualisierung und weiteren Bearbeitung medizinischer Volumendaten. Die Methodik verfolgt das Ziel, die pr?operative Planung chirurgischer Eingriffe zu unterstützen, in dem Volumendaten interaktiv visualisiert und Gewebe wie auch funktionelle Einheiten simuliert werden. Eingebettet in ein Radiologiesystem kann der Benutzer mit den Visualisierungen im dreidimensionalen Raum interagieren. Ein hybrider Ansatz erlaubt die Integration von oberfl?chen- und volumenorientierten Objektmodellen. Die Client/Server Architektur erlaubt die Nutzung zentraler, leistungsf?higer Ressourcen zur Berechnung der Volumenvisualisierung und Methoden der Bildverarbeitung.  相似文献   

12.
Zusammenfassung.   Eine Restrukturierung eines gegebenen Datenbankschemas kann aus unterschiedlichen Gründen notwendig werden. So kann dadurch z.B. die Verst?ndlichkeit des Schemas verbessert werden. Im Bereich der relationalen Datenbanken steht die Normalisierungstheorie zur Verfügung, um z.B. Redundanz zu vermeiden. Der Normalisierung liegt dabei ein Begriff der ?quivalenz von Datenbankschemata zugrunde. Im Bereich der objektorientierten Datenbanken gibt es bislang kaum vergleichbare Ans?tze. In diesem Beitrag pr?sentieren wir daher einen Ansatz, mit dem Klassenhierarchien in objektorientierten Datenbankschemata in eine „normalisierte” Form transformiert werden k?nnen. Dazu mu? zun?chst eine extensionale Analyse durchgeführt werden, die die notwendigen Informationen über extensionale Beziehungen zwischen den gegebenen Klassen liefert. Anschlie?end wenden wir Konzepte der formalen Begriffsanalyse an, um eine „normalisierte” Klassenhierarchie abzuleiten. Eingegangen am 16. Januar 1999 / Angenommen am 3. Oktober 1999  相似文献   

13.
Zusammenfassung.   Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln. Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs, welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog (das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser konsequent normkonformen Gestalt leider immer noch nicht anzutreffen. Eingegangen am 5. M?rz 1999 / Angenommen am 1. Mai 2000  相似文献   

14.
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert, das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen, bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera, um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen der Medizintechnik gewinnbringend eingesetzt werden k?nnen.  相似文献   

15.
Zusammenfassung.   Die st?ndig wachsende Menge der in Datenbanksystemen verwalteten Daten und steigende Verfügbarkeitsanforderungen verlangen die Entwicklung immer schnellerer und effizienterer Backup- und Re-covery-Verfahren. Die Ausnutzung von Parallelit?t beim Backup und Restore ist dabei einer von verschiedenen “intelligenten” L?sungsans?tzen, die nicht allein auf schnellere Hardware setzen, sondern helfen, eine bestehende Infrastruktur optimal auszunutzen. Der Beitrag stellt ein Puffer-Proze?-Modell vor, mit dessen Hilfe parallele Backup- und Restore-Algorithmen systematisch abgeleitet werden k?nnen. Eine definierte Auswahl von Algorithmen wird anhand praxisbezogener Kriterien bewertet und klassifiziert (inklusive Einordnung der wichtigsten DBMS-Produkte). Me?ergebnisse prototypisch implementierter Algorithmen schlie?lich belegen die Anwendbarkeit des Puffer-Proze?-Modells zur Implementierung effizienter paralleler Backup- und Restore-Algorithmen. Eingegangen am 31. Januar 2002 / Angenommen am 5. Juli 2002  相似文献   

16.
Jede Datenbankprogrammierschnittstelle mu? sich daran messen lassen, inwieweit sie die Vorteile der durch sie integrierten Sprachen (Datenbank- und Programmiersprache) erh?lt. Neben dieser allgemeinen Zielsetzung müssen heutzutage neuere Konzepte in den Bereichen Programmiersprachen und Datenbanksysteme sowie die Anforderungen komplexer Anwendungsbereiche (z. B. CAD oder Software-Entwicklung) beachtet werden. Unser Ansatz der generierten Aufrufschnittstellen soll dazu beitragen, Datenmodelle objekt- relationaler Datenbanksysteme und Typsysteme objektorientierter Programmiersprachen n?her zusammenzurücken. Er erlaubt neben der Schnittstellengenerierung ihre anwendungsspezifische Konfigurierung, um die DB-Verarbeitung spezieller Anwendungen gezielt optimieren zu k?nnen. Wir werden neben Aspekten der Generierung/Konfigurierung die Nutzung von generierten Aufrufschnittstellen beschreiben und Experimente vorstellen, die den durch diesen Ansatz erzielbaren Leistungsgewinn verdeutlichen. Letzterer kann durch gezielten, auf die jeweilige Anwendung zugeschnittenen Einsatz von frühen Bindungen für Datenmanipulationsoperationen sowie von Pointer-Swizzling-/Prefetching-Mechanismen erreicht werden.  相似文献   

17.
Dieser Beitrag erl?utert neue Ans?tze und Ergebnisse der statistischen Lerntheorie. Nach einer Einleitung wird zun?chst das Lernen aus Beispielen vorgestellt und erkl?rt, dass neben dem Erkl?ren der Trainingdaten die Komplexit?t von Lernmaschinen wesentlich für den Lernerfolg ist. Weiterhin werden Kern-Algorithmen in Merkmalsr?umen eingeführt, die eine elegante und effiziente Methode darstellen, verschiedene Lernmaschinen mit kontrollierbarer Komplexit?t durch Kernfunktionen zu realisieren. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), die Kernfunktionen zur Sch?tzung von Funktionen verwenden, oder Kern-PCA (principal component analysis), die Kernfunktionen zur Extraktion von nichtlinearen Merkmalen aus Datens?tzen verwendet. Viel wichtiger als jedes einzelne Beispiel ist jedoch die Einsicht, dass jeder Algorithmus, der sich anhand von Skalarprodukten formulieren l?sst, durch Verwendung von Kernfunktionen nichtlinear verallgemeinert werden kann. Die Signifikanz der Kernalgorithmen soll durch einen kurzen Abriss einiger industrieller und akademischer Anwendungen unterstrichen werden. Hier konnten wir Rekordergebnisse auf wichtigen praktisch relevanten Benchmarks erzielen.  相似文献   

18.
Stetig wachsende Datenmengen und hohe Verfügbarkeitsanforderungen an Datenbanken führen dazu, dass Wartungsarbeiten (wie z.B. Datenbankreorganisationen) oft nicht mehr (oder nicht mehr vollst?ndig) offline in zur Verfügung stehenden Zeitfenstern durchgeführt werden k?nnen bzw. dass die Kosten oder die Behinderungen des normalen Datenbankbetriebs bei online durchgeführten Wartungsarbeiten nicht mehr vernachl?ssigt werden k?nnen. Deshalb sollte vorab bestimmt (quantifiziert) werden, ob der zu erwartende Nutzen den mit der Reorganisation verbundenen Aufwand rechtfertigt. Es ist daher wichtig, die Datenbankobjekte zu lokalisieren und einzugrenzen, bei denen ein hoher Wartungsbedarf besteht. Weiterhin ist es wünschenswert, zun?chst den durch Wartungsma?nahmen erreichbaren Nutzen vor ihrer Durchführung quantifizieren zu k?nnen. Dieser Nutzen ist auch von der Workload abh?ngig, also von den gegen die Datenbankobjekte gerichteten Datenbankanweisungen und deren Ausführungsh?ufigkeiten. Insbesondere der zur Workload-Abarbeitung anfallende I/O-Aufwand, der einen dominierenden Anteil am Gesamtaufwand ausmacht, l?sst sich mit einer Datenbankreorganisation u.U. wesentlich beeinflussen (reduzieren). In diesem Beitrag wird eine Methode vorgestellt, die es erm?glicht, die Auswirkungen einer Datenbankreorganisation auf den zur Workload-Abarbeitung notwendigen I/O-Aufwand abzusch?tzen und damit den haupts?chlichen Nutzen der Reorganisation zu quantifizieren. über erste Erfahrungen mit der Methode, die anhand von Beispielen gesammelt wurden, wird berichtet. The permanent increasing amount of data and the requirement of high availability cause that maintenance of databases (e.g. database reorganizations) often is not or not completely (off-line) possible in the available time spans. On-line database reorganizations are often expensive and cumbersome during the normal database processing. To reduce performance impacts it is important to locate the database objects that have a high level of disorganization and so a high need of maintenance. Furthermore, it is desirable to be able to estimate the benefit of expensive maintenance operations before their processing. This benefit depends on the degree of disorganization and on the instructions that are processed on the database objects (workload). In particular, the costs for I/O-operations dominate the total costs for database operations. With database reorganizations it is possible to reduce the I/O-costs. In this paper we present a method to calculate the benefit of database reorganizations before the processing. The presented method allows to calculate the possible reduction of the I/O-cost for processing a given workload caused by a database reorganization.
CR Subject Classification E.2,H.2.7,H.3.2,H.3.3  相似文献   

19.
In diesem Artikel werden zwei generative Ans?tze für animierte Berechnungsmodelle vorgestellt und im Kontext von Lernsoftware für den Compilerbau angewandt. Zuerst wird eine Implementierung für den ersten Ansatz beschrieben. Basierend auf der Erfahrung mit diesem Prototypen wurde der zweite Ansatz entwickelt und das Ganimal Rahmenwerk entworfen. Es handelt sich dabei um ein generisches Algorithmenanimationssystem, das eine für ein solches System einzigartige Fülle an M?glichkeiten durch sein graphisches Basispaket, das nebenl?ufige Laufzeitsystem mit graphischer Benutzeroberfl?che und die Programmier- und Animationsbeschreibungssprache Ganila bietet.  相似文献   

20.
Zusammenfassung. Virtuelle Welten stellen Abstraktionen unserer realen Welt bzw. unserer Erfahrung mit der realen Umgebung dar. Diese Abstraktionen k?nnen Computeranimationen und interaktive 3D-Simulationen, aber auch Geschichten, Erz?hlungen und Tr?ume sein. Wir wollen sie in diesem Beitrag aus Sicht der Informatik betrachten, wo virtuelle Welten 3D-Szenen sind, die mit rechnerbasierten Techniken erzeugt werden. Die Anf?nge der rechnergenerierten virtuellen Welten waren Computeranimationen, die seit einigen Jahren kommerziell verfügbar sind. In den letzten wenigen Jahren hat sich die Technik der virtuellen Realit?t soweit entwickelt, da? zahlreiche Anwendungen zur visuellen Echtzeitpr?sentation von 3D-Objekten/R?umen realisiert werden k?nnen, die Walkthroughs genannt werden. Die Entwicklung geht nun in Richtung lebendiger virtueller Welten, in denen sich die virtuellen Objekte bewegen, ver?ndern und auf die Umgebung, inklusive den Benutzer, reagieren. Dieser Beitrag diskutiert diese Entwicklung und stellt die dazugeh?rigen Techniken und Methoden vor. Eingegangen am 5. September 1997 / Angenommen am 3. Februar 1998  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号