共查询到20条相似文献,搜索用时 15 毫秒
1.
Andreas Bauer Jan Romberg Bernhard Sch?tz 《Informatik - Forschung und Entwicklung》2005,49(3):194-205
Zur Beherrschung der komplexen vernetzten und verteilten Funktionen von Automotive-Software ist eine Beschreibung des zu erstellenden
Systems auf verschiedenen Abstraktionsebenen und schrittweise überg?nge zwischen diesen Ebenen notwendig. Neben der Definition
geeigneter Ebenen werden zur Unterstützung echtzeitkritischer Systemanteile ein einheitliches Berechnungsmodell, ebenenspezifische
Beschreibungstechniken, sowie methodische Regeln für diese Abstraktionsebenen eingeführt und in den Werkzeugprototypen AutoFocus integriert. 相似文献
2.
Alexander Schill Thomas Springer und Thomas Ziegert 《Informatik - Forschung und Entwicklung》2001,16(4):200-212
Zusammenfassung. Die Integration mobiler Rechner in bestehende Netze erfordert eine umfassende Unterstützung. Die Hauptgründe dafür sind die
Vielfalt der eingesetzten Technologien sowie fehlende Konzepte in den bestehenden Systemen. In diesem Artikel werden M?glichkeiten
zur system- und anwendungsseitigen Unterstützung mobiler verteilter Systeme diskutiert. Nach einer kurzen Einführung in die
Problemstellungen des Forschungsgebietes werden Ans?tze für eine systemseitige Unterstützung mobiler Anwendungen und Dienste
anhand einer Softwareplattform beschrieben. Danach wird ein Modell zur Aufteilung mobiler Anwendungen vorgestellt, das verschiedene
system- und anwendungsseitige Unterstützungsmechanismen integriert. Abschlie?end wird das Modell zu einem Ansatz auf Basis
von Software-Komponenten verallgemeinert. Die Darstellung erfolgt anhand von Beispielsystemen, an deren Entwicklung die Autoren
ma?geblich beteiligt waren und sind.
Eingegangen am 31. Januar 2001 / Angenommen am 6. September 2001 相似文献
3.
Albrecht Schmidt und Hans-Werner Gellersen 《Informatik - Forschung und Entwicklung》2001,16(4):213-224
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation
auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten
Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene
Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit
Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung
und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf
aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich
eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren
Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur
Vereinfachung der Anwendungsentwicklung beitr?gt.
Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001 相似文献
4.
Marc Hassenzahl und Jochen Prümper 《Informatik - Forschung und Entwicklung》1999,14(3):145-153
Zusammenfassung. Die vorliegende Arbeit gibt Einblick in ein software- ergonomisches Beratungsprojekt zur Entwicklung eines internetbasierten
Informationssystems. Sie beschreibt projektspezifische Probleme und die darauf aufbauende Konzeption des Beratungsprojekts.
Es galt, insbesondere drei Problembereiche zu berücksichtigen: (1) Zusammenarbeit von Software-Entwicklern und Ergonomen,
(2) Integration von Grundprinzipien software-ergonomischer Gestaltung in ein klassisches Vorgehensmodell der Software-Entwicklung
(V-Modell) und (3) Wahl des Zeitpunkts für den Beginn der Beratung. Der konkrete Beratungsproze? unterteilte sich in drei
Phasen: Analyse, Gestaltung und Bewertung des Informationssystems. In jeder dieser Phasen kamen verschiedene software-ergonomische
Methoden (Schriftliche Benutzerbefragung, Gebrauchstauglichkeitsstudien etc.) zum Einsatz, die an die Bedingungen des Projektes
angepa?t wurden. Der besondere Schwerpunkt lag dabei auf der Analysephase.
Eingegangen am 23. November 1998 / Angenommen am 25. M?rz 1999 相似文献
5.
Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV. 相似文献
6.
Hans-Jürgen Siegert 《Informatik - Forschung und Entwicklung》2008,22(4):237-266
Zusammenfassung Zusammen mit drei weiteren Artikeln, die den übergang vom Batch- zum Timesharing-Betrieb, das
Unternehmen und die Hardware des TR440 beschreiben, gibt dieser Text einen Rückblick auf Entwicklung
und Realisierung des deutschen Gro?rechners TR440 bei AEG-Telefunken und den Nachfolgefirmen. Dieser
Teil des Rückblicks besch?ftigt sich mit der Software und der Software-Entwicklung für den
TR440, insbesondere in den Jahren 1965 bis 1974. Es werden technische Highlights der Software behandelt
und Einblicke in die Software-Entwicklung selbst gegeben, insbesondere auch Hintergrundinformationen zu
Einflüssen, Verantwortungen und Entscheidungen. Der Artikel beginnt mit dem TR4, dem Vorg?nger
des TR440, und endet mit den Aktivit?ten für einen TR440-Nachfolger.
CR subject classification K.1 ; K.2 ; K.6 ; D.2 ; D.3 ; D.4 ; D.2.9 相似文献
7.
Zusammenfassung. Im Zentrum der Betrachtungen zum DNA-Computing steht die Frage nach den Chancen und Grenzen dieses neuen Berechnungsmodells,
nachdem in den letzten Jahren eine rasante Entwicklung auf das Thema aufmerksam machte. Neben beachtlichen theoretischen Untersuchungen
zum “Rechnen im Reagenzglas” werden auch laborpraktische Implementierungen favorisiert. An der TU Dresden wurde in interdisziplin?rer
Arbeit ein Integer-Rucksackproblem mittels eines DNA-Algorithmus im Labor gel?st und dabei eine Vielzahl molekularbiologischer
Operationen analysiert. Mit Hilfe dieses Satzes von Operationen gelang eine universelle und labornahe Modellierung des DNA-Computing.
Hierbei angewandte Techniken und Methoden werden vorgestellt und bewertet. Die Beschreibung des DNA-Algorithmus zeigt, wie
sich Einzeloperationen vorteilhaft zu Operationsfolgen zusammensetzen lassen und gemeinsam mit einer geeigneten DNA-Kodierung
der Eingangsdaten zur L?sung des Problems im Labor führen. Erstmalig wurden hierbei natürliche Zahlen verarbeitet. Die Arbeitsgemeinschaft
DNA-Computing Dresden konzentriert sich auf Aufgabenstellungen, die formale Modelle des DNA-Computing mit überzeugenden Laborimplementierungen
verbinden.
Eingegangen am 14. Februar 2000 / Angenommen am 26. Oktober 2000 相似文献
8.
Frank Steinfath Brigitta Lange und Klaus B?hm 《Informatik - Forschung und Entwicklung》1997,12(3):128-142
Zusammenfassung. Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige
Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen
Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als
Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind
dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird
au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t
zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es
werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge
unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern.
Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997 相似文献
9.
Manfred Broy Franz Huber und Bernhard Sch?tz 《Informatik - Forschung und Entwicklung》1999,14(3):121-134
Zusammenfassung. Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl
unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige
Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren
Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und
visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV.
Eingegangen am 23. Dezember 1998 / Angenommen am 16. Juni 1999 相似文献
10.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
11.
Thilo Ernst Clemens Klein-Robbenhaar André Nordwig und Tobias Schrag 《Informatik - Forschung und Entwicklung》2000,15(1):33-50
Zusammenfassung. Es wird eine werkzeugunterstützte Entwicklungsmethodik vorgestellt, die der Erstellung von Berechnungsmodellen für die Simulation
hybrider physikalisch-technischer Systeme dient. Dafür werden verschiedene Modellbeschreibungstechniken dargestellt und klassifiziert,
die anschlie?end in einen falltypischen Entwicklungsproze? eingebettet werden, der auf hybriden Erweiterungen von UML und
Z basiert. Die Simulationsumgebung Smile (http://buran.fb10.tu-berlin.de/Energietechnik/EVT\_KT/smile/) erm?glicht schlie?lich die generische Erzeugung eines ausführbaren
Simulators. Architektur und Kernkomponenten dieses Systems, wie beispielsweise L?sungsverfahren und Experimentshell, werden
eingehender diskutiert. Ein Anwendungsbeispiel illustriert den beschriebenen Entwicklungsproze?.
Eingegangen am 15. Juli 1999 / Angenommen am 12. November 1999 相似文献
12.
Bernhard Sch?lkopf Klaus-Robert Müller Alexander J. Smola 《Informatik - Forschung und Entwicklung》1999,50(4):154-163
Dieser Beitrag erl?utert neue Ans?tze und Ergebnisse der statistischen Lerntheorie. Nach einer Einleitung wird zun?chst das Lernen aus Beispielen vorgestellt und erkl?rt, dass neben dem Erkl?ren der Trainingdaten die Komplexit?t von Lernmaschinen wesentlich für den Lernerfolg ist. Weiterhin werden Kern-Algorithmen in Merkmalsr?umen eingeführt, die eine elegante und effiziente Methode darstellen, verschiedene Lernmaschinen mit kontrollierbarer Komplexit?t durch Kernfunktionen zu realisieren. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), die Kernfunktionen zur Sch?tzung von Funktionen verwenden, oder Kern-PCA (principal component analysis), die Kernfunktionen zur Extraktion von nichtlinearen Merkmalen aus Datens?tzen verwendet. Viel wichtiger als jedes einzelne Beispiel ist jedoch die Einsicht, dass jeder Algorithmus, der sich anhand von Skalarprodukten formulieren l?sst, durch Verwendung von Kernfunktionen nichtlinear verallgemeinert werden kann. Die Signifikanz der Kernalgorithmen soll durch einen kurzen Abriss einiger industrieller und akademischer Anwendungen unterstrichen werden. Hier konnten wir Rekordergebnisse auf wichtigen praktisch relevanten Benchmarks erzielen. 相似文献
13.
Hartmut Ehrig und Martin Gro?e-Rhode 《Informatik - Forschung und Entwicklung》2001,16(2):110-117
Zusammenfassung. Der Softwareanteil in technischen Systemen bekommt einen immer h?heren Stellenwert. Für einen durchg?ngigen und wartbaren
Entwurf der Software sind Spezifikationstechniken erforderlich, die von ingenieurwissenschaftlichen Ablaufbeschreibungen bis
zu (objektorientierten) Softwaremodellen reichen. Wesentlich ist dabei, solche Techniken zu integrieren, um zu einem durchg?ngigen
Systemmodell zu gelangen. Dies ist Gegenstand des DFG-Schwerpunktprogramms „Integration von Techniken der Softwarespezifikation
für ingenieurwissenschaftliche An- wendungen”, in dem Ingenieure und Informatiker in vierzehn Forschungsprojekten gemeinsam
an der Entwicklung integrierter Methoden zur Softwarespezifkation vornehmlich in den Bereichen Produktionsautomatisierung
und Verkehrsleittechnik arbeiten. In diesem Artikel geben wir einen überblick über die Ergebnisse der ersten zwei Jahre des
Schwerpunktprogramms und dessen Ziele für den weiteren Verlauf von vier Jahren.
相似文献
14.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
15.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
16.
Wolfgang Reif 《Informatik - Forschung und Entwicklung》1999,14(4):193-202
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden
heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender
Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch
neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen
der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits-
und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden
eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden.
Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden
und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der
aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert.
Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999 相似文献
17.
Friedrich Summann 《Informatik - Forschung und Entwicklung》1998,13(3):139-146
Zusammenfassung . Die Bibliothek der Universit?t Bielefeld hat im Zuge der technischen Entwicklung ihr bisher NOVELL-basiertes Informationsnetz
auf eine Internet-Basis umgestellt. Die Benutzer innerhalb und au?erhalb der Bibliothek arbeiten mit ihrem Web-Browser an
ihrem Arbeitsplatz und nutzen das elektronische Dienstleistungsangebot. Dazu geh?ren der Nachweis von globalen und lokalen
Internetquellen, selbsterstellte Datenbanken (Katalog, Zeitschriftentitel- und Artikelnachweis), lokal installierte Fremdanwendungen
(Silverplatter-Datenbanken) und digitale Dokumente (elektronische Zeitschriften, digitalisierte Buchbest?nde, Hochschulschriften).
MS-DOS- und Windows-Anwendungen (überwiegend CD-ROM-Datenbanken) sind über Windows-NT-Software (WinCenter) eingebunden. Im
Laufe der Entwicklung hat sich die Integration der Einzelbestandteile als wichtigster Schwerpunkt herauskristallisiert. Dabei
werden nahtlose überg?nge zwischen unterschiedlichen Anwendungen (Anbindung externer Datenbanken an die Dokumentlieferung)
und Verknüpfungen zwischen dem Nachweis von Literatur und dem elektronischen Abruf des Dokuments (insbesondere bei Zeitschriftenartikeln)
realisiert. über einen praxisorientierten Ansatz wird versucht, den Weg zur digitalen Bibliothek voranzutreiben.
Eingegangen am 19. Januar 1998 / Angenommen am 3. August 1998 相似文献
18.
In diesem Artikel werden zwei generative Ans?tze für animierte Berechnungsmodelle vorgestellt und im Kontext von Lernsoftware für den Compilerbau angewandt. Zuerst wird eine Implementierung für den ersten Ansatz beschrieben. Basierend auf der Erfahrung mit diesem Prototypen wurde der zweite Ansatz entwickelt und das Ganimal Rahmenwerk entworfen. Es handelt sich dabei um ein generisches Algorithmenanimationssystem, das eine für ein solches System einzigartige Fülle an M?glichkeiten durch sein graphisches Basispaket, das nebenl?ufige Laufzeitsystem mit graphischer Benutzeroberfl?che und die Programmier- und Animationsbeschreibungssprache Ganila bietet. 相似文献
19.
Wolfgang Wahlster J?rg Baus Christian Kray und Antonio Krüger 《Informatik - Forschung und Entwicklung》2001,16(4):233-241
Zusammenfassung. Die intelligente Ressourcenadaption ist eine der gro?en Herausforderungen für die n?chste Generation mobiler Navigationssysteme.
Da man typischerweise mehrere Fortbewegungsarten oder Verkehrsmittel kombinieren muss, um an einen Zielort zu gelangen, muss
sichergestellt werden, dass mobile, allgegenw?rtige Navigationshilfen dies über eine jeweils situationsangepasste Benutzerschnittstelle
unterstützen. Der notwendige Wechsel zwischen verschiedenen Positionierungstechnologien soll für den Endbenutzer m?glichst
unbemerkt bleiben. Im folgenden wird ein hybrides Personennavigationssystem vorgestellt, das die in bestimmten Fortbewegungssituationen
verfügbaren Positionierungstechnologien und deren Genauigkeit optimal nutzt, um die Pr?sentation der Wegbeschreibung auf verschiedene
Endger?te und Ausgabemodalit?ten sowie die kognitive Ressourcenlage des Benutzers zu adaptieren.
Eingegangen am 28. Februar 2001 / Angenommen am 8. August 2001 相似文献
20.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer Annika Wagner 《Informatik - Forschung und Entwicklung》1999,2(3):83-94
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. 相似文献