首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
Zusammenfassung  AEG-Telefunken entwickelte seit 1957 Rechner. Neben den Prozessrechnern spielten die Gro?rechner TR 4 und TR 440 eine wichtige Rolle. Von 1969 bis 1976 wurden 46 TR 440 installiert, bei einem Gesamtumsatz von 730 Mio. DM (370 Mio. Euro) [2]. In der Produktpolitik spielten die Rechner keine zentrale Rolle, obwohl eine ausgezeichnete technologische Ausgangsposition bestanden hatte und die Telefunkenrechner sp?ter nachdrückliche technologiepolitische Unterstützung erhielten. Die Entwicklung des Systems TR 440 hatte mit wesentlichen konzeptionellen und technologischen Schwierigkeiten zu k?mpfen, wozu der Mangel an qualifizierten Zulieferern und erfahrenen Mitabeitern kam. Trotzdem gelang es, bis 1970 den bislang schnellsten in Europa entwickelten Rechner [6] fertig zu stellen und Systemsoftware zu entwickeln [9], die den Produkten der Mitbewerber um Jahre voraus war. Von Anfang an hatte das Unternehmen nach geeigneten Kooperationspartnern gesucht. Mit dem Verkauf des Gro?rechnergesch?ftes an Siemens gingen die bereits laufenden Planungen für einen TR 440-Nachfolger zu Ende.
AEG-Telefunken developed computers since 1957. Besides process control computers, the large scale computers, TR 4 and TR 440, played an important role. 46 TR 440 computers were installed from 1969 to 1976, summing up to a sales volume of 730 Mio. DM (370 Mio. Euro) [2]. AEG-Telefunken did not consider computers as a strategic part of its product policy, though the company had had an excellent technological position for this business and the Telefunken computers got vigorous political support. The development of the TR 440 system had to defeat essential conceptual and technological difficulties, besides lack of qualified suppliers and experienced personnel. Nevertheless, the company could, by 1970, develop the fastest European computer so far [6], with system software ahead of competitors by years [9]. From the beginning, the company had been looking for business partners. With the sale of the large scale computer business to Siemens, all activities on a TR 440 successor were stopped. AEG-Telefunken computer business strategy is also subject of a paper to appear in the IEEE Annals of the History of Computing.
  相似文献   

2.
Zusammenfassung  Zusammen mit drei weiteren Artikeln, die den übergang vom Batch- zum Timesharing-Betrieb, das Unternehmen und die Hardware des TR440 beschreiben, gibt dieser Text einen Rückblick auf Entwicklung und Realisierung des deutschen Gro?rechners TR440 bei AEG-Telefunken und den Nachfolgefirmen. Dieser Teil des Rückblicks besch?ftigt sich mit der Software und der Software-Entwicklung für den TR440, insbesondere in den Jahren 1965 bis 1974. Es werden technische Highlights der Software behandelt und Einblicke in die Software-Entwicklung selbst gegeben, insbesondere auch Hintergrundinformationen zu Einflüssen, Verantwortungen und Entscheidungen. Der Artikel beginnt mit dem TR4, dem Vorg?nger des TR440, und endet mit den Aktivit?ten für einen TR440-Nachfolger. CR subject classification  K.1 ; K.2 ; K.6 ; D.2 ; D.3 ; D.4 ; D.2.9  相似文献   

3.
4.
Zusammenfassung.   Kommunikationsumgebungen und die damit verbundenen Datenverarbeitungsprozesse werden von Tag zu Tag komplexer. Nur der hochqualifizierte Systemtechniker durchschaut noch die Prozesse, die sich hinter heutigen Kommunikationssystemen verstecken. Der Anwender bleibt zunehmend auf der Strecke. Um diesem Prozess entgegenzuwirken, wurde am Lehrstuhl für Offene Kommunikationssysteme der TU Berlin eine Plattform entwickelt, die „I-centric Communications” unterstützt. Die Plattform stellt bei der Bearbeitung von Aufgaben nicht die Technik sondern Dienstpr?ferenzen der Benutzer in den Mittelpunkt. In diesem Papier werden die Idee „I-centric Communications” und die entwickelte I-centric-Plattform vorgestellt. Auf Basis der entwickelten Plattform realisierte Anwendungen und Dienste schlie?en das Papier ab. Eingegangen am 30. Januar 2001 / Angenommen am 3. Juli 2001  相似文献   

5.
Zusammenfassung  Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert, das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen, bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera, um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen der Medizintechnik gewinnbringend eingesetzt werden k?nnen. CR subject classification  J.3 ; I.6.5  相似文献   

6.
Zusammenfassung  Die Java Platform, Enterprise Edition (Java EE, frühere Bezeichnung: J2EE) wurde entwickelt, um den Einsatz von Java in unternehmenskritischen Transaktionsanwendungen, wie etwa Finanzbuchhaltungs- oder Warenwirtschaftssystemen, zu erm?glichen. Die Programmierung ist jedoch immer noch sehr aufwendig, wenn es darum geht, die Isolation parallel laufender Transaktionen zu gew?hrleisten. Die Einhaltung der Transaktionsisolation ist eine Grundvoraussetzung, um die zugrunde liegenden Daten in einem konsistenten Zustand zu halten. Der vorliegende Beitrag analysiert die existierenden Probleme und gibt einen überblick über die derzeitig verfügbaren oder diskutierten L?sungsans?tze. CR subject classification  A.1 ; D.3.2 ; D.3.4 ; D.4.1  相似文献   

7.
Zusammenfassung.   Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie (Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie (Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten zurückgegriffen. Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999  相似文献   

8.
Zusammenfassung.   Im Projekt „Virtuelle Universit?t“ an der FernUniversit?t Hagen wird eine netzbasierte Universit?tsumgebung entwickelt, die s?mtliche Funktionen einer Universit?t in integrierter Form über elektronische Kommunikationsnetze verfügbar macht. Der Ansatz bietet eine v?llig neue Qualit?t flexiblen, bedarfsorientierten und dennoch betreuten Lernens. Das Projekt wird seit Mitte 1996 durch das Land Nordrhein-Westfalen sowie durch Sachspenden der Firmen Oracle, Sun Microsystems und Sybase gef?rdert. Seit dem Wintersemester 1996/97 wird die Virtuelle Universit?t im praktischen Betrieb auf Grundlage eines ersten Prototypen mit Studierenden der FernUniversit?t und im Rahmen von Industrieveranstaltungen erprobt.   相似文献   

9.
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert, das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen, bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera, um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen der Medizintechnik gewinnbringend eingesetzt werden k?nnen.  相似文献   

10.
Zusammenfassung.   Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001  相似文献   

11.
Zusammenfassung.   Der Programmiersprache Java wird oft nachgesagt, da? sie zu langsam für ernsthafte Softwareentwicklung sei, besonders im Bereich des wissenschaftlichen Rechnens. Das Ergebnis dieser Fallstudie zeigt jedoch, da? bei parallelen geophysikalischen Anwendungen eine Verlangsamung von weniger als Faktor 4 im Vergleich zu einer ?quivalenten Realisierung in Fortran90 bzw. High Performance Fortran (HPF) erreicht werden kann. Dieses Resultat wurde sowohl auf einer parallelen Maschine mit gemeinsamem Speicher (SGI Origin2000) als auch auf einer Maschine mit verteiltem Speicher (IBM SP/2) erreicht. Der Geschwindigkeitseinbu?e stehen sprachspezifische Vorteile von Java gegenüber Fortran90/HPF gegenüber: Objekt-orientierter Java-Code ist leichter zu warten und wiederzuverwenden als Fortran-Code und darüberhinaus vollst?ndig portabel, sogar zwischen Parallelrechnern mit unterschiedlichen Speicherkonzepten. Ferner ist zu erwarten, da? bessere übersetzertechnologien den Leistungsunterschied zwischen Java und Fortran weiter verkleinern werden. Eingegangen am 24. Dezember 1997 / Angenommen am 2. April 1998  相似文献   

12.
Zusammenfassung.   Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren, wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte. Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen. Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes, wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund. Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001  相似文献   

13.
Die plattformunabh?ngige und organisationsübergreifende Web Services-Interoperabilit?t setzt ein leistungsf?higes und flexibles Autorisierungssystem voraus. In diesem Beitrag wird ein Zugriffskontrollsystem vorgestellt, welches sich durch das Zusammenspiel lokaler und verteilter Autorisierung auszeichnet. Im Zusammenhang mit lokaler Zugriffskontrolle, bei der Rechte innerhalb einer Organisation ausgewertet werden, stellt sich insbesondere die Herausforderung, Autorisierungsregeln zu konsolidieren: Da die Funktionalit?t von Web Services h?ufig auf weitere Anwendungen und Betriebsmittel wie Datenbanksystemen aufsetzt, ergeben sich Abh?ngigkeiten bezüglich der Autorisierung, die überprüft und eingehalten werden müssen. über eine verteilte Zugriffskontrolle wird der Aufbau von Kollaborationsnetzwerken erm?glicht. Der Augenmerk liegt im Folgenden auf schwach gekoppelten Zusammenschlüssen, die die Autonomie der beteiligten Organisationen beibeh?lt. Skalierbarkeit und Effizenz werden durch den Einsatz von rollenbasierter Zugriffskontrolle einerseits und dem Caching ?hnlicher, wiederkehrender Autorisierungen andererseits erreicht.  相似文献   

14.
Zusammenfassung.   Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS) eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht. Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001  相似文献   

15.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

16.
Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie (Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie (Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten zurückgegriffen.  相似文献   

17.
Zusammenfassung.   Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll. Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von bestimmten Inspektorengruppen untersucht. Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren. Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden. Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001  相似文献   

18.
Zusammenfassung.   Die st?ndig wachsende Menge der in Datenbanksystemen verwalteten Daten und steigende Verfügbarkeitsanforderungen verlangen die Entwicklung immer schnellerer und effizienterer Backup- und Re-covery-Verfahren. Die Ausnutzung von Parallelit?t beim Backup und Restore ist dabei einer von verschiedenen “intelligenten” L?sungsans?tzen, die nicht allein auf schnellere Hardware setzen, sondern helfen, eine bestehende Infrastruktur optimal auszunutzen. Der Beitrag stellt ein Puffer-Proze?-Modell vor, mit dessen Hilfe parallele Backup- und Restore-Algorithmen systematisch abgeleitet werden k?nnen. Eine definierte Auswahl von Algorithmen wird anhand praxisbezogener Kriterien bewertet und klassifiziert (inklusive Einordnung der wichtigsten DBMS-Produkte). Me?ergebnisse prototypisch implementierter Algorithmen schlie?lich belegen die Anwendbarkeit des Puffer-Proze?-Modells zur Implementierung effizienter paralleler Backup- und Restore-Algorithmen. Eingegangen am 31. Januar 2002 / Angenommen am 5. Juli 2002  相似文献   

19.
Zusammenfassung  Die Medizin ist gepr?gt sowohl durch ihren besonderen unmittelbaren und existenziellen Bezug zu Menschen als auch durch ihre zunehmende ?konomische Bedeutung. Ein Medizinisches Informationssystem ist das umfassende System aller Informationsverarbeitung einer medizinischen Einrichtung oder Region. W?hrend die Architekturprinzipien des rechnerbasierten Teils solcher Informationssysteme wenige Besonderheiten aufweist, bündelt das Management dieser Informationssysteme viele Herausforderungen und Probleme, die wegen der besonderen Bedeutung der Medizin besondere Priorit?t bei der L?sung haben müssen. CR subject classification  C.2.4 ; J.3 ; J.1 ; K.4.3 ; K.6  相似文献   

20.
Zusammenfassung.   Software-Entwurfsmuster sind eine intuitiv einleuchtende Idee, die viele Befürworter hat. Als Forscher dürfen wir die behaupteten Wirkungen von Entwurfsmustern jedoch nicht einfach glauben, sondern müssen sie gründlich prüfen. Dieser Artikel beschreibt die wichtigsten Behauptungen und entwickelt daraus zugeh?rige Forschungsfragen. Wir diskutieren die Methodik für ein Forschungsprogramm, das die Fragen beantworten soll, und skizzieren praktische Beschr?nkungen, unter denen diese Forschung ablaufen mu?. Es folgt eine kurze Beschreibung von drei kontrollierten Experimenten und den Hauptfolgerungen aus ihren Ergebnissen. So sollte man zum Beispiel die Benutzung von Entwurfsmustern in einem Entwurf genau dokumentieren und Entwurfsmuster nicht einsetzen, ohne alternative Entwürfe zu prüfen. Abschlie?end diskutieren wir ein im Rahmen des Forschungsprogramms geplantes viertes Experiment. Der Beitrag dieses Artikels liegt vorrangig in einer Beschreibung und Diskussion wichtiger methodischer Aspekte kontrollierter Experimente in der Softwaretechnik. Eingegangen am 27. Oktober 1998 / Angenommen am 13. M?rz 1999  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号