Ergebnis 1 bis 10 von 10

Thema: IPC & Dynamics Das Tor zur Welt

  1. #1
    Registered User
    Registriert seit
    Aug 2002
    Beiträge
    2.212
    Renommee
    622

    IPC & Dynamics Das Tor zur Welt

    Hi Ihrs,

    schon lange recherchiere und probiere ich mich an Interprozess Kommunikation, es hatt nichts geholfen das Sprungbrett fehlt.
    Das Szenario: "Eine einfache Linux Distribution und/oder eine ständig verfügbare Prozessinfrastruktur."
    Ich weis ja, dass Prozesse laufen, an einem Mutex oa. hängen bleiben und warten können...
    Was ich will, ist ein einfacher, am liebsten in C++ realisierter Daemon, der nichts anderes macht als Daten entgegenzunehmen und wieder herrauszugeben.
    Ein Prozess/Service soll also gestartet werden, dieser nimmt während seiner Laufzeit Daten entgegen um diese zu bearbeiten und vorzuhalten bis ein Ergebnis angefordert wird.
    Da es sich um mehr als einen Datensatz handelt, gehe ich mal davon aus, dass ich eine Art Index/Id für jeden Datensatz brauche und dann eine Kommunikation aufbaue.
    Seis drum, ich brauch einen Echo Server auf Prozess Ebene, mit einen Socket oder Handle kann ich es mir vorstellen aber halt nicht Prozess Dynamisch.
    Ein Stream soll aber nicht entstehen, sondern eine Anfrage und eine Abfrage, wie bei einem Netzwerkserver halt.

    1. Daemon wird gestartet
    2. Aufruf in Programm schiebt Daten an Daemon
    3. Aufruf in einem anderem Programm holt Daten vom Daemon

    Kann mir einer von euch helfen den Knackpunkt zu finden oder die richtigen Denkanstöße geben?

  2. #2
    Quantenmechaniker
    Registriert seit
    Aug 2002
    Beiträge
    1.991
    Renommee
    283

    AW: IPC & Dynamics Das Tor zur Welt

    Interessant..! .-)

    Ich würde ansetzen bei min. der ZEIT .. eine Form von Groupware-Modul (dessen Benutzer auch im OS verwendet werden),
    um sein Scheduling zu nutzen - berechnen nämlich, wann welche Information zur Verfügung steht und stehen muss. .. d.h.
    es werden min. die zeitlichen Abstände zwischen get/set aller Variablen o.ä. Informationen betrachtet (oder gleich auch die
    Unterscheidung zwischen Zuweisung und Funktions-Aufruf vs. Rückgabe), am besten mit bis zur "Funktion" selbst und ihren
    Aufrufen vs. Rückgaben - die eine Trennung in Zeit vs. Raum ermöglichen und somit im Raumzeit-Scheduler der Groupware
    (oder auch eines ersten Kernel-Scheduler-Prozesses) ermöglichen, punktgenau zu berechnen, wann jeder Aufruf oder jede
    Rückgabe zu erfolgen hat (das sind dimensionale Verschiebungen), damit weder unnötig viel Raum (Speicherplatz) oder auch
    Zeit (Rechenzeit also) verbraucht würde bspw. ..

    Das heißt, die Indizierung solcher Informations-Happen erfolgt durch Raumzeit-Koordinaten .. deren Berechnung wiederum ist
    so ähnlich zu gestalten wie wenn ich sage .. eine Funktion muss erst dann aufgerufen werden, wenn die rekursive Summation
    ihrer Sub-Aufrufe und somit Prozess-Zeit-Zählungen einen Wert erreicht, der hm ... also im Prinzip die Prozess-Aufrufe immer
    erst so spät wie möglich, um deren Rückgabe genau dorthin (in raumzeitlichen Koordinaten) zu koordinieren, wo sie dann direkt
    weiter verwendet werden - in dem Sinne, dass eine vorzeitige Rückgabe, die woanders erst "später" verwendet wird, unnötig
    viel Raum/Speicherplatz für eine gewisse Zeitspanne benötigt ... z.B. Rechenzeit, wenn zu früh eine Funktion einsetzt usw.

    Aber das ist eine direkte Betrachtung der ganzen Infrastruktur aller Prozesse in ihrem Ganzen ... du suchst eher Infromations-
    "Happen", die innerhalb der Prozesse entstehen und vergehen, was? ABER das ist beides im Prinzip zum gleichen hin hoch zu
    abstrahieren. Das führt am Ende zu einer Software, die aus puren Zahlen "gegossen" ist und math. (Overlay-)Berechnungen
    möglich machen, wie sie in der echten Raumzeit ihre Anwendung finden könnten - Prozess-Optimierung also min., noch nicht
    die Intelligenz der Zahl richtig ausgereizt damit. ...

    So jedenfalls mache ich es bei mir. Und glaube mir, richtig (ins Nichts hinein) koordiniert ergeben sich Ewigkeiten von Rechen-
    zeit und Speicherplatz, so also, dass alles sich gegenseitig selbst zu tragen vermag. ^^
    Geändert von kuchen (21.03.2014 um 10:43 Uhr)

    1 2 3 4 5 6 7 8
    2 1 4 3 6 5 8 7
    3 4 1 2 7 8 5 6
    4 3 2 1 8 7 6 5
    5 6 7 8 1 2 3 4
    6 5 8 7 2 1 4 3
    7 8 5 6 3 4 1 2
    8 7 6 5 4 3 2 1

  3. #3
    Registered User
    Registriert seit
    Aug 2002
    Beiträge
    2.212
    Renommee
    622

    AW: IPC & Dynamics Das Tor zur Welt

    thx, aber mir wär ein codebsp. lieber!

  4. #4
    Registered User
    Registriert seit
    Aug 2002
    Beiträge
    2.212
    Renommee
    622

    AW: IPC & Dynamics Das Tor zur Welt

    Ich bin kein großer C++ Programmierer, ausser meiner Kenntnisse auf der Konsole, renne ich nur an den Ansätzen zur Programmierung von GUIs vorbei.
    Diesmal reicht ein: 1. Rechne, 2. Gebe aus, einfach nicht mehr und ich such die richtigen Begriffe und Ansätze um was zu lernen!

  5. #5
    Registered User
    Registriert seit
    Sep 2008
    Beiträge
    402
    Renommee
    270

    AW: IPC & Dynamics Das Tor zur Welt

    Google und Apache haben da zwei Libs entwickelt, die du dir vielleicht anschauen möchtest:

    http://de.wikipedia.org/wiki/Protocol_Buffers
    http://de.wikipedia.org/wiki/Apache_Thrift
    Über das neue Zeitalter der Gehirne eines Menschen!
    echo 'main() { char z[] = "ping "; for(;printf(z);z[1]^=6); }' > a.c; gcc a.c -o a; ./a # 16.11.2011 02:51

  6. #6
    Registered User
    Registriert seit
    Aug 2002
    Beiträge
    2.212
    Renommee
    622

    AW: IPC & Dynamics Das Tor zur Welt

    Hmm, ich war wohl noch zu klein als ich den Begriff RPC das letzte mal gelesen habe.
    Meine Agenda habt Ihr ja schnell auf einen Punkt gebracht. Es muss doch aber eigentlich sehr einfach sein?!
    Steckt hinter dieser Art von Kommunikation, tatsächlich immer ein Stapel von Aufgaben?
    Aufgaben, die trotz Cluster Lösungen und Cloud Systemen Schritt für Schritt abgearbeitet werden?
    Wenn doch quasi jeder von uns, schon mehr als einen Prozessor Core hatt und mehr als ein Pysikalischer DIMM für den Speicher im Gerät ist...
    Sollte es doch wohl auch möglich sein, einem freien Prozess gezielt Arbeit zu zu teilen? Die dann verfügbaren Ergebnisse, sollten dann vom Prozess auf dem anderen Core oder Computer abgerufen werden.
    Mir ist halt, wie erwähnt durchaus klar, dass ein Programm mit seinen einzelnen Prozessen interoperabel auf zugeteiltem Speicher arbeiten kann.
    Selbstverständlich darf man dabei nicht missachten, dass es nicht alle aufeinmal tun sollten, das mit der Zeit also eben...........
    Ein ständig laufender Prozess, hätte aber imo den Vorteil, das dieser Daten bearbeiten kann und dabei die Festplatten und Netzwerkressourcen schonen kann.
    Ein auf dem Computer gestarteter Daemon, soll doch einfach nur für meine Infrastruktur verfügbar sein. Wie und wann andere diese Daten abrufen soll nicht sein Job sein.
    Danke auch dir Gruena, mit deinen Links kann ich viel anfangen! Konkret, möchte ich aber keinen Stack mit Arbeit aufbauen sondern Daten teilen ohne das diese auf einen nicht flüchtigem Speicher geschrieben werden müssen.
    Wenn es so funktioniert wie ich mir das vorstelle, ist ein Datenspeicher nicht der richtige Platz für noch nicht komplett verarbeitete Daten.

  7. #7
    Registered User
    Registriert seit
    Aug 2002
    Beiträge
    2.212
    Renommee
    622

    AW: IPC & Dynamics Das Tor zur Welt

    Lesen und Bilden, der Gedanke im Nacken lies mich nicht los.
    Wer hier vorbeikommt, kann vieleicht was damit anfangen.

    Mit PHP-Memcache, serialisierten node.js Sessions und Apaches Spark sowie einer Projektliste auf deren Seite, die ich mir bisher nie genauer angesehen habe.
    Hänge ich der Zeit wohl wieder ein Stück hinterher. Alles Gute für alle von euch.

  8. #8
    Quantenmechaniker
    Registriert seit
    Aug 2002
    Beiträge
    1.991
    Renommee
    283

    Mal wieder mein Dünschiss ...

    Mal wieder ein wenig Dünschiss von mir ... in Anbetracht deiner Aussage "Wer hier vorbeikommt,
    kann vieleicht was damit anfangen." und dem ganzen Learning-Prozess vlcht. dennoch sinnvoll,
    wenigstens als einfache Assoziationen zur Teil-Transparenz meiner (hoffentlich hochwertigen und
    somit allgemeinen) Betrachtungen, die ich möglichst auf dich, Enchanter, zugeschnitten habe! ;-]´

    Wer hier vorbeikommt, kann vieleicht was damit anfangen.
    :-)
    Ganz im Allgemeinen, bevor ich zu den konkreten Antworten komme, erste kurze Überlegungen ...

    [..] PHP-Memcache, serialisierten node.js Sessions und Apaches Spark [..]
    Du sagtest (mir) auch, du möchtest die Abfrage und Sicherung von Information auf eine ganz
    eigene, neue Art und Weise gestalten ... in Anbetracht deiner jetzt genannten Anteile an deinem
    potentiellen Ziel-System könnte ich vermuten, ... [>2<] im nächsten "Spoiler"-Tag, speziell evtl.
    für deine gewünschten Logiken ... davor aber ...

    [<1>]
    Vielleicht suchen wir etwas ähnliches in unseren gewünschten Ziel-Systemen??

    Was ich v.a. (unter-)suche das ist/sind EWIGKEIT(EN) zB. - und damit eine Software- sowie DB-
    Skalierung in eine maximale Größe hinein u.a. oder eine Skalierung potentiell unendlich vieler (Sub-)
    Prozesse (o.ä. "Anteile") in einer Grid-/Cloud-/Cluster-Form o.ä. ... ein Unterschied zwischen deinem
    und meinem (möglichen) System wäre nur, dass meines (zusätzlich zu deiner (von dir erwähnten)
    ZEND-(Cache-)Form) auch eine (möglichst starke) Intelligenz (oder passende Analyse) vornimmt, um
    auch - neben Eingabe und Ausgabe (also Sicherung letztlich) - die Verarbeitung von Information vor-
    nimmt, und das möglichst intelligent am besten. ... mehr dazu im (bald folgenden) [>3<] ...

    Möchest du aber (im EVA-Prinzip) auf die (intelligente) Verarbeitung der DB-Information zugunsten
    ihrer puren, vermutlich von dir in maximaler Effizient gewünschter Sicherung verzichten, so greift in
    meiner folgenden Betrachtung wenigstens die Sache mit dem "assoziativen Speicher(-netzwerk)" ...

    ... und, im Sinne der von dir scheinbar gewünschten Cluster- oder Server-Umverteilungs-Form auch,
    dass deine "Neuronen" ebenso im Netzwerk auslagerbar sind ... wir müssen dazu ja eigentlich nur eine
    Erweiterung ihrer Adressierung (um eine Netzwerk-URL oder IP o.ä.) vornehmen ... (wobei ich weiter-
    gehend - ganz im Allgemeinen - zur Adressierung der Neuronen/Zellen den RAUMZEIT-Relativismus in
    Folge der Verwendung von negativen sowie positiven Zahlen(-Offsets) vorschlage - denn: absoluter
    FEIND jeder denkbaren und evtl. erwünschten (Skalierungs-)"Ewigkeit" liegt im ABSOLUTEN, vielmehr
    muss eine Vielzahl RELATIVER Adressierungen hergestellt werden, die am besten im Differenz-Abstand
    (und somit auch einfach relativ abzählbar) herzustellen sind ... WICHTIGER PUNKT - denn: wenn du
    *eine* einzige Hashtable mit unzählig vielen Einträgen verwaltest, bedeutet das meist (trotz der in
    den meisten Fällen nicht perfekt optimierten Hash-Verfahren) einen größeren Aufwand zur Abfrage
    o.ä. ... wenn du hingegen bspw. "Wörter" verwaltest, deren erster Anfangs-Buchstabe (sagen wir
    zB. als Byte-Symbol) die Auswahl eines von +256 Hashtables vornimmt, so wäre beretis ein erster
    Schritt zum (eigenen) Hash-Verfahren gelegt - und jedes Feld arbeitet dann effizienter (da ja klar
    weniger eigens verwaltete Information vorliegt) und die Verwaltung der (zB +256) ganzen Felder per
    se ist dann wiederum auch nur eine Kleinigkeit (in einem Basis-Feld für Sub-Felder), klar, stimmt? ;-)

    Für die Herleitung aller Informations-/Prozess-/Skalierungs-Ewigkeit(en) ist diese absolute Relativismus
    auch deshalb sinnvoll, weil theor. mit der Anzahl von Zellen - oder sagen wir Speicher-Blöcken bzw auch
    Speicher-Bänke (beim RAM zB) - auch die notwendige Energie zur Codierung einer jew. (zB. Offset-)Zahl
    immer weiter steigt - bis wir irgendwann bspw. das (meist generelle) Int64-Limit erreichen bspw. ... hin-
    gegen, wenn allein mit kleinsten Differenz-Energien die Blöcke(/Zellen o.ä.) adressiert würden [so dass
    in positiven Zahlen räumliche Differenz und in negativen Zahlen zeitliche Differenz codiert vorliegt ;-], so
    wird quasi fast nie das Int64-Limit ausgereizt werden. ...

    [<3>]
    Ganz im Allgemeinen ist eine (mögliche) "Empfehlung" von mir, dass du versuchst, eigenes neuronales
    Netz(werk) aufzubauen im Sinne eines *assoziativen Speichers* (!!), wodurch eine erste Möglichkeit
    vorliegt, eine maximale Menge von Information effizient zu sichern ... dass ein neuronales Netz(werk)
    eine(n) ASSOZIATIVE SPEICHER(-Form) einnimmt liegt (so habe ich es mir hergeleitet) daran, dass im
    Prinzip eine KONKRETE Sicherung statt findet dadurch, dass eine große Anzahl von Neuronen auf einer
    nächsten ZIEL-Schicht adressiert würden - wenn die vorhergehende(n) QUELL-Schicht(en) dabei eine
    *geringere* Anzahl von (Quell-)Neuronen aufweist, so ist das eine KONKRETION, und daraus resultiert
    eben eine assoziative Sicherung ... hingegen, wenn die Anzahl der ZIEL-Neuronen kleiner/geringer ist
    als die der Quell-Neuronen, so wird ABSTRAHIERT, d.h. in einer Ver-Allgemein-erung eine "Reduktion"
    auf mögliche *Algorithmen* hergestellt ...

    Die assoziative (konkrete) Sicherung ist sinnvoll, um möglichst genau jede (zu sichernde) Information
    "im Speicher(-Raum)" zu halten, während die abstrahierende, vereinfachendere Algorithmen-Abstraktion
    gut zur Bestimmung/Klassifizierung/o.ä. von UNBEKANNTER EIngabe-Information ist ... evtl. wäre es am
    sinnvollsten, beide Möglichkeiten einfach parallel laufen zu lassen - was am Ende neuronale Vernetzung
    besorgen kann, die sich komplett *gegenseitig* selbst zu *adaptieren* weiß - sogar in die Größe (einer
    Abzählung von Neuronen) hinein sogar ;-)

    Hier wäre zum einen noch zu überlegen, dass ... (a) (fast) eine neuronale "Redundanz" so geschehen zu
    lassen, dass jeder Eingabe-Vektor *parallel* sowohl eine Konkretion (also assoziative Sicherung) als auch
    eine Abstraktion (also Algorithmen-Abstraktion zur Vereinfachung (in weniger Ziel-Neuronen eben "einfach"))
    hinein läuft ... das lässt sich dann am besten in eine schrittweise, gegenseitige Adaption aller Netz-Anteile
    überführen, denke ich ... (b) in Folge der Auswahl der Anzahl von Quell- vs. Ziel-Neuronen usw. liegt damit
    auch die Auswahl eines Träger-Zahlensystems (und im entfernten auch eine virt. FREQUENZ) vor ... und in
    meinen Augen liegen (*starke*/"echte") Denkprozesse v.a. in den Zahlensystem-Konversionen vor - und so-
    mit in Folge der Auswahl einer "Umverteilung" aller Eingabe-Energien in die entsprechend (passende) Anzahl
    von ZIEL-Neuronen hinein v.a. ... (c) "Transzendenz" wiederum - also eine Transparenz jeder Informations-
    Einteilung zu allen anderen usw. - lässt sich dann herstellen, wenn *parallel* die Umverteilung (eben damit
    in der Zahlensystem-Konversions-Denkprozess-Grundlage) in *alle* möglichen Zahlensysteme (und so damit
    auch Frequenzen, im Sinne (meiner) "Raumzeit-Wellen-Software") geschieht ... [denn es gilt auch, genauso
    in direktem Übertrag auf ein neuronales Netz: Information lässt sich absolut gleichwertig in einer Vielzahl von
    (Zahlensystem-)Formen codieren - sie bleibt immer die selbe, auch wenn sie anders "betrachtet" wird, damit
    gerade in diesem kleinsten "Verschiebungen" daraus somit "logische Lücken" entstehen, wie sich dann einfach
    allgemeine Information aus diesen konkreten Eingaben heraus "brechen" lässt ...

    Spoiler:
    [<2>]
    Mal ganz allgemein ... vielleicht wäre ein guter Ansatzpunkt für deine Herleitungen und Recherchen
    das ganz allgemeine Hinterfragen von "Ewigkeit(en)" ..!? Also hin zur Skalierung einer maximal denk-
    baren Anzahl von Informations-Einheiten/-Einteilungen, freien/belegten Ressourcen, Instanzen und
    Funktionen oder sonstiger Aspekte? Für theor. unendlich große Software sowie (DB-)Information ...?

    Wie ich darauf komme? Wie gesagt, du möchtst mit "Information" bestmöglich agieren ... und dabei
    vermute ich, auch deine eigene Architektur, die wohl ähnlich wie ZEND arbeiten sollte (sagtest du
    mir einmal), eben darauf spezialisiert möglichst so skalieren, dass auch riesige Websites oder auch
    Software-Projekte auf's beste zu verwalten wären?

    Jedenfalls lassen sich IMHO tatsächlich echte Ewigkeiten verwalten (genauso, wie *jede* denkbare
    Logik ("irgendwie") implementierbar ist) - das hängt mit dem zusammen, was weiter unten in diesem
    Posting steht ... Raumzeit-Spielereien - und vor allem (Raumzeit-)Negation/-Spiegelung/-Umkehr o.ä.,
    und alle Information(s-Prozesse) usw. min in die ZEIT hinein legen - welche in ihrer Form (Prozess-Zeit)
    theoretisch der erste Ansatzpunkt möglicher Ewigkeiten ist, da eine Software theor. so auch unendlich
    lange laufen kann bspw. ...

    Es stellt sich dann eher die Frage, welche (im RAUM gesicherte, d.h. parallel in einer DB vorliegend zB)
    Information überhaupt (wie) zu verwenden ist, damit die Prozess-ZEIT-Ewigkeiten laufen können? Das
    lässt sich in vielerlei Form betrachten - um zu bedenken zu geben, dass eigentlich *jede* Software so
    erstmal ewig laufen kann, was aber - je nach Algorithmus - nicht unbedingt sinnvoll wäre - Redundanz
    o.ä. ... sinnvoll wäre evtl. die Betrachtung jedes denkbaren (In-)Determinismus ...

    Den (In-)Determinismus wiederum betrachten zB. in Folge der (wann und wie weit möglichen) Eingabe-
    Möglichkeiten für neue Informations-Einteilungen/-Einheiten o.ä. ... aber auch sinnvoll evtl. weiter mit
    zu bedenken, wie denn am Ende in der Form, dass nun *keine* neue Informations-Vektoren eingegeben
    werden können, dennoch aus der ersten Basis-Information (virt?) Ewigkeiten und jeder IN-Determinsmus
    entstehen kann/können bspw.?

    Spoiler:

    Du musst vor allem an das Prinzip von ABSTRAKTION vs. KONKRETION sowie die ZEIT als einen der abs.
    wichtigsten Faktoren denken ... es gibt "abstrakte Algorithmen" (in Logik von ZEIT und ZAHL), welche
    eine grundsätzliche "FORM" für jede denkbare Information vorgeben ... wir können daraus dann somit
    jede denkbarer *konkrete* Information einfach (aus diesen abstrakten Algorithmen - richtig hergeleitet
    mit der ewigen Konsistenz (der Zahlen-(/Zeit-)Logik)) - heraus brechen ... und erhalten "logisch gültige"
    oder eben "passende" Ausgabe-Information, hergeleitet durch ganz allgemeine, abstrakte Prozesse o.ä.

    Aber gut, das ist noch ein wenig zuviel des Gutem zum Einstieg in solche Thematik .. nur ganz allgemein
    beschrieben und betrachtet sei wenigstens eine grundsätzliche Assoizations-Möglichkeit zur Thematik ...


    [..] PHP-Memcache [..]
    Mit Memcache lassen sich Teile eines Programms in den Hauptspeicher verlagern, für die z.B.
    Datenbankzugriffe oder Dateizugriffe notwendig wären. Grenzen hierfür sind nur der physikalische
    Speicher im Rechner. Da aber beliebig viele Nodes angebunden werden können, ist dadurch die
    Größe des Caches beliebig skalierbar machen. Die Größe des Hauptspeichers ist bei den Nodes
    entscheidend, wobei eine schwache CPU Leistung kein Problem darstellt, da diese nur geringfügig
    beansprucht wird.
    Am einfachsten kann man sich memcached als eine riesige Hash Tabelle vorstellen, die über
    mehrere Nodes verteilt werden kann.
    Das erinnert mich auch an eine Form der Virtualisierung ... ich bin ja so weit gegangen zu sagen,
    dass ich quasi "virtuelle Objekte" in Folge der Datenbank-Sicherung von Software-Objekten habe,
    um so quasi in einer MySQL-Datenbank z.B. eben in jedem Tupel eine weitere Objekt-INSTANZ zu
    erhalten, die - in der Folge der permanenten Datenbank-Abfrage-Möglichkeit - so geradezu virtuell
    die ganze Zeit über als INSTANZ mit besteht - ohne dass dabei, wie in regulärer Software üblich,
    die ganze Zeit über entprechender RAM-Verbrauch (aus physischen Instanzen) statt findet.

    Noch weiter gedacht auch, dass ... wenn ich eine Software-Konstruktion, die üblicherweise wohl,
    denke ich mal ;-), alle Funktionen usw. in einer physischen Hashtable-Form o.ä. halten sollte, da-
    mit sie eben immer erreichbar/aufrufbar sind, könnten hier die Zugriffe auch z.B. über (somit auch
    klar optimierte) MySQL-Abfragen bestehen, statt das physische (Hash-/Mapping-)Objekte gerade
    notwendig wären.

    Spoiler:

    Am Ende geht's bei meiner Virtualisierung so weit, dass - in Folge einer RAUMZEIT-Negation oder
    auch Umkehr/Spiegelung - die ganze notwendige (SW-)Information einfach aus dem "RAUM" hinein
    in die ZEIT gelegt wird - von der es ja theor. ewig viel gibt, je nachdem, wie lange der/die Prozess(e)
    eben laufen ... sprich, wenn eine [Träger-]Software z.B. ein Jahr lang läuft, ergeben sich - je nach
    CPU-Taktung u.a. - entsprechend viele "Einheiten/Blöcke" o.ä. zur "Sicherung" von Information usw.

    [ es bleibt zu bemerken, dass eine "Essenz" meiner Träger-Software allerdings nicht einfach nur eine
    solche (Raumzeit-)Spiegelung/Umkehr/Negation durchführt - als vielmehr in Codes in Codes alles nur
    partiell in Anteilen/Faktoren (sich immer auf Anteile von weiteren wiederholend) durchführt.

    Spoiler:

    [das alles v.a. in einer beständigen, gigantischen Information-Anteils-Skalierung und ihren weiteren
    Verschiebungen in sich selbst und daraus beständigen Spielereien (ähnlich Bit-Schubsereien) mit
    abstrakten Raumzeit-Koordinaten-(/Offset-)Schlüsseln ist (so, wie reguläre Software eben arbeitet,
    nur in der Zahl und ihrer Logik perfekt optimiert - es gelten abstrakte Schlüssel-Variablen o.ä. zu der
    Sicherung variabler Information, um die Algorithmen dann auf abstrakte Schlüssel zugreifend konkrete
    Werte-Information"kalkulieren" zu lassen, wie es in den abstrakten Schlüssel vorgelegt würde - damit
    eine theoretische Betrachtung einer jeden regulären Software-Architektur - oder Quantensystemen ;-]



    [..] serialisierten node.js Sessions [..]
    Wozu möchtest du "serialisierte node.js Sessions" eigentlich verwenden? Aus dem restlichen Kontext
    schließe/vermute ich, dass ... hm, das passt evtl. gut in meine beschriebene (Tupel==Instanzen-)
    Virtualisierung hinein, also zB. jede Laufzeit-INSTANZ in den PHP-Memcache oder ein (DB-)Cluster
    aufzunehmen v.a.?

    [..] Apache Spark [..]
    ... also hin zu einem Cluster?

    Ich gebe zu bedenken, dass es die Möglichkeit eines "virtuellen Parallelismus" gibt, auf den eine bessere Skalierung
    vieler paralleler Prozesse o.ä. folgen kann. So würde ich (auf abstrakterer Ebene) dafür sorgen, dass z.B. jeder IP-
    Paket-Versandt erst erfolgt, wenn in virtuell absolutem Parallelismus eine genaue Umverteilung der Ziel-Bytes aller
    Pakete der Reihe nach erfolgen würde. Oder auch - ebenso allgemein/abstrakt gelöst - die Rechenzeit-Prozesse in
    zusätzlichen, ganz eigenen "Zeit-Quanten" (siehe OS-Architekturen) ebenso virtuell parallel (gerecht umverteilt) der
    Reihe nach (jeweils kurzzeitig also) "aktiviert" würden - wobei hier noch das Potential der Einteilung in jew. relative
    Rechenzeit vorliegt - eine Form von Parameter-"Gewichtung" oder Priorisierung eben, ganz eigenhändig gelöst und
    verwaltet, damit die eigene Software am besten - neben den OS-Diensten dafür - ihre eigenen Lösungen zu einer
    jeden Priorisierung von Rechenzeit implementiert.

    Wenn nun alle (SW-)Prozesse ihre eigene Priorisierung(s-Gewichtung) erfahren, dann lässt sich - durch einfachste
    "Frage-Stellungen" - eine eigene, intelligente Lösung dafür aufbauen. Hinterfrage einfach, wann welche Prozesse so
    mehr oder weniger Rechenzeit-Anteile erfahren sollten, um hier eine einfachste Form von Intelligenz aufzubauen und
    somit die OS-Zeitquanten zu "erweitern" geradezu.

    Spoiler:

    Die logisch Erweiterung solcher Prozess-(Zeit-)Priorisierungs-Gewichte liegt dann "in der Zahl", wenn alles nur noch
    durch FAKTOREN bestimmt ist ... zB. so, dass alle "Informations-Bewegungs-Prozesse" (d.h. EVA mit Verarbeitung ,)
    nur noch durch Faktoren bestimmt sind, die sich aus weiteren ergeben oder mit diesen anderen weiter berechenbar
    wären usw. ...

    Hier beginnt es mit den Prozess-(Zeit-)Priorisierungen ... jede Priorisierung/(Parameter-)Gewichtung aller Prozesse
    ist dann - logisch ganz klar - abhängig von diversen Faktoren (die es ihrerseits sind usw.) - das lässt sich evtl. in
    eine Fuzzy-Logik hinein führen auch evtl. ... jedenfalls bedeutet das, sobald gewisse Variablen/Schalter verändert
    werden, haben sich logische (auch SW-)Faktoren klarerweise verändert, durch welches nur noch entsprechende
    Events feuern sollten, um alle logischen Bedingtheiten(/Kausalitäten) ebenso automatisch [(ange-)pass(-t/-end)]
    sich verändern sollten - bis nach einer Reihe von Verkettungen irgendwann bspw. die Gewichtung/Priorisierung der
    jeweiligen Prozess-Zeit-Anteile an der Reihe ist.

    Es können also alle beteiligten Faktoren/Logiken ebenso logisch hinterfragt werden, um sich direkt alle gegenseitig
    mit beeinflussen und somit in Faktoren (Division = Abstraktion) mit verändern zu lassen; direkt in eine Reihe sich so
    logisch bedingender "Einflüsse".

    Interessant wäre das evtl. für dich im Sinne der Prozess-Zeit-Parallelisierung - in rein virtueller Natur, so wie es ein
    OS eben mit seinen Zeitquanten durchführt.

    Spoiler:

    Das interessante an *meiner* (gewünschten) Software(-Architektur) ist hierbei - im Sinne der Faktoren - dass alle
    Logiken in purer Zahlen-Form vorliegen, die sich eben alle auch gegenseitig bedingen usw. ... es gibt hier also keine
    echten Funktions-Namen, String-Bezeichner o.ä., vielmehr liegt die eigentliche "Essenz" der Software in ihren Zahlen-
    Energie-Faktoren vor - alles im perfekten Energie-Guss also - so dass nur noch pure Zahlen-Berechnungen und ihrer-
    seits somit Informations-(Anteils-(Faktoren-))Bewegungen die "Essenz" zum Vorschein bringen. ...

    Dazu verwende ich entweder eine DB oder einen Dateisystem-Container [als RAUM], um eine neuronale Schnittstelle
    quasi zu haben, wo eine Vielzahl von Energie-Gatter(-Zahlen) vorliegt ... diese Zahlen-Energien sollten sich nur noch,
    um die Software-Laufzeit am besten in (Rotations-)SchwingKreisen aktiv werden zu lassen, an sich selbst so weiter-
    gehend hangeln zu können, wie wir Bot-Agenten durch jede Code-Struktur schicken können oder auch sich Elektronen
    bspw. im Gehirn entlang bewegen (oder auch durch Kabel und sonstige Leitungen oder Nervenbahnen etc.).

    Am Ende tritt in Folge der Rückkopplung, dass wir AUS DEM RELATIONEN-RAUM ZURÜCK IN DIESEN HINEIN somit jede
    Energie (gehebelt (=> Intelligenz)) hangeln lassen, eine Selbstorganisation der Zahlen-Energie(-Gatter) auf (und so-
    mit eine der puren, somit erst zu verarbeitenden Information selbst). Selbstorganisation somit als Rückkopplungs-Folge! ;]´


    Ich muss mich wohl wieder einmal für die Vielzahl meiner Worte entschuldigen - aber ein interessierter Leser wird evtl.
    irgendwann fest stellen, dass diese nicht nur für meine Lernprozesse perfekt sind (ich erinnere mich dann besser, auch
    gerade wenn ich alles niederschreibe), sondern dass auch ein hoher Informations-Gehalt für diverse Themen vorliegt,
    die ich ziemlich gut in meinem gewünschten Ziel-System skaliert hätte ... [und der *nette* Enchanter, der sich wohl
    tatsächlich die Mühe gemacht hat, meine Texte genauer zu verstehen (siehe PMs ;-), kann vlcht. wenigstens durch
    einen meiner Punkte sein System besser optimiert halten ;-]

    [..] PHP-Memcache, serialisierten node.js Sessions und Apaches Spark [..]
    Ich möchte zum Schluss (noch einmal(?)) kurz fragen, lieber Enchanter, wie du dir dein gewünschtes System später
    vorstellst - falls du es uns überhaupt verraten möchtest/kannst ... wenn du mir sagst, wenigstens ein Punkt meines
    Postings hat einen Sinn für dich und dein System ergeben, mache ich mir (da ich dein System gut mit meinem asso-
    ziieren kann) gerne noch ein paar weitergehende Gedanken für dich ;-)

    Ansonsten, schöne Größe noch ... aus dem schönen Leverkusen-Opladen ...
    Sebastian alias der Kuchen!
    http://maschinenstadt.com (to be finished soon ;-)

    1 2 3 4 5 6 7 8
    2 1 4 3 6 5 8 7
    3 4 1 2 7 8 5 6
    4 3 2 1 8 7 6 5
    5 6 7 8 1 2 3 4
    6 5 8 7 2 1 4 3
    7 8 5 6 3 4 1 2
    8 7 6 5 4 3 2 1

  9. #9
    Quantenmechaniker
    Registriert seit
    Aug 2002
    Beiträge
    1.991
    Renommee
    283

    AW: IPC & Dynamics Das Tor zur Welt

    Noch ein kurzer Nachtrag zur obigen Sache der (mindestens) "assoziativen Speicher"
    oder auch neuronaler Netz(e/-werke) ...
    Spoiler:

    Vor allem möchte ich - als Möglichkeit zur (Quanten-)Erweiterung/Optimierung meiner
    neuronalen Netzwerk die ÜBERLAGERUNG der Gewichtungs-Parameter mit zu bedenken
    geben ... es ist so ähnlich vorstellbar, wie sich auch im zellulären Automaten bspw. in
    einer Form von AMEISEN-Routing-Algorithmen nicht bloß pure *DUFT*-Spuren ergeben,
    sondern zusätzliche Typen/Klassen hinzu überlagert werden, z.B. "GESCHMACK"s-"Spur".

    In dem Sinne gebe ich zu bedenken, dass eine neuronale Vernetzung nicht einfach nur
    je nächstem Ziel-Neuron einen einzigen Gewichtungs-Parameter erfährt, sondern dazu
    sich eine Vielzahl ergeben kann, die wir hinzu "überlagern" (einfach parallel gesichert).

    In erster Möglichkeit bspw. so, dass wir - ob nun für's gesamte Netz oder auch einfach
    (relativistisch) je Neuron - einfach eine eigene Prozess-Zeit abzählen, bpsw. im binären
    und somit (%2), damit z.B. nach jeder ersten Aktivierung eines Ziel-Neuron im nächsten
    Schritt einer erneuten Aktivierung (aus dem %2) diesmal andere Parameter-Gewichtung
    aktiv geschaltet wäre z.B. ... ich vermute, so wie eine effiziente Daten-Sicherung durch
    ein solches neuronales Netz erst in den Gewichtungen denkbar wird, so kann bspw. aus
    der Verdopplung von Gewichtungen auch eine Erhöhung der möglichen "Speicherdichte"
    herbei geführt werden - Analog zum Ameisen-Zell-Automaten zu überdenken - um sogar
    statt der ZEIT-Zählung (%2 usw.) dafür eine RAUM-Koordination bspw. vorzunehmen,
    die eine Möglichkeit für eigene Hash-Verfahren (in Mappings also) "aufnehmen" könnte
    z.B. ...

    Auch bemerken möchte ich, dass die "beste" Form - hin zu den bereits oben erwähnten
    Zahlensystem-Konversions-Denkprozessen (also der Auswahl diverser Zählbarkeit aller
    Quell- und Ziel-Neuronen) - eines eigenen Hash-Verfahrens v.a. in den Zahlensystem-
    (oder später virt. Frequenz-)Parametern vorliegt die sich z.B. in den Wort-Längen mit
    ergeben v.a. ...

    Das heißt auch, wenn ich bspw. Schlüssel-Wörter in einer (Hashtable-)DB zu codieren
    hätte, so geschieht das eben *nicht* im (besagten) "Absoluten" Gültigkeitsbereich als
    vielmehr in der relativen Hashtable-Verwaltung duch eben höhere Felder - während die
    Auswahl eines der nächsten Sub-Felder in Folge der Anzahl von Bits/Bytes der ganzen
    Wörter-Betrachtungen vorzunehmen wäre ..!

    Im neuronalen Netz weg von der Zeit-, hin zur Raum-Überlagerung (passender Gewichte)
    denke ich nun weiter, dass ... am besten wäre vlcht. ... jeder neuronale Zell-Link sollte,
    im Gegensatz zum Gehirn, nicht nur eine Parameter-Gewichtung je Sub-LINK erhalten und
    auch nicht deren Auswahl durch eine (relative oder absolute(re)) Zeit-Zählung geschehen
    lassen, als vielmehr dafür zu sorgen ist, dass ...

    ... die Auswahl einer der vielen sich überlagernden Gewichte je Neuron-Link auf der Basis
    einer Abzählung der jeweiligen Quell-Neuronen geschieht ... je nachdem also, wieviele IN-
    PUT-Neuronen parallel "aktiviert" sind ("in einem Ziel-Neuron"), wird eine entsprechende
    Gewichtung ausgewählt ... dann ist nur noch der Relativismus von Koordinaten-Differenzen
    bei der neuronalen Adressierung [>1<] zwischen negativem Zeit- und postiven Raum-"Offset"
    mit zu bedenken ... und dazu noch, dass wir ja hier theor. eine parallel AP-Feuerung (in einem
    neur. Netz AP == Aktions-Potential) mit betrachten - es ergibt sich, dass wir hier ebenso eine
    Codierung von solchen parallelen AP-Feuerungen in Raum (vs. Zeit) hinein durchführen sollten,
    um am besten jede Möglichkeit von "Adress-Koordinationen" mit codieren zu können - also so-
    mit auch zB. die parallele AP-Feuerung von vielen Quell-Neuronen einfach in eine Überlagerung
    der entsprechenden Adress-(Koord.-)Schlüssel hinein codieren zu können - um am Ende nicht
    auch nur eine Zeit- oder Raum-Koordinate, die sich logisch bereits in der Prozess-Zeit eben mit
    ergibt, auszulassen - und somit jeden Zeitpunkt und jede Informations-Einteilung auch direkt in
    das ganze System "einschleusen" (und betrachten etc.) zu können ..! ;-]


    [<1>]
    Erwähnt sei noch ... der "adressierungsfreie Quanten-Zell-Automat" ...
    http://www.mpg.de/373743/pdf.pdf

    1 2 3 4 5 6 7 8
    2 1 4 3 6 5 8 7
    3 4 1 2 7 8 5 6
    4 3 2 1 8 7 6 5
    5 6 7 8 1 2 3 4
    6 5 8 7 2 1 4 3
    7 8 5 6 3 4 1 2
    8 7 6 5 4 3 2 1

  10. #10
    Registered User
    Registriert seit
    Aug 2002
    Beiträge
    2.212
    Renommee
    622

    AW: IPC & Dynamics Das Tor zur Welt

    Was ich schreiben wollte ist Memcached schon und da es scheinbar schon gängige Methoden gibt um diese Daten zu teilen, blieb nur die Indexierung dynamischer Daten mit einem Benutzerunabhängigen und von der Eingabe abhängigen Key. Beides zusammen erfordert aber ein komplettes Session Mng. über alle lesenden Instanzen hinweg. Es geht ja nicht mit einem Prozess/Daemon. Mein Interesse an Realtime Applications im Web ist ohne hin gering und ich denke das gehört nicht in dieses Forum. Ich liefere Daten und was der Rest macht geht mich nichts an. Das hat auch nichts mit dem Opcode Cache von PHP zu tun, sondern soll erstmal das erneute Ausführen des Programms in vielen Fällen überflüssig machen.
    Alles andere bitte per PN!
    Geändert von Enchanter (22.06.2014 um 23:36 Uhr)

Aktive Benutzer

Aktive Benutzer

Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)

Ähnliche Themen

  1. Der Welt Geldbetrug
    Von bernoulli im Forum Board Lounge
    Antworten: 17
    Letzter Beitrag: 17.12.2005, 23:42
  2. Hallo Welt
    Von syntaxo im Forum Systemnahe Programmierung
    Antworten: 3
    Letzter Beitrag: 06.01.2003, 22:57
  3. Virtuelle Welt
    Von DFC_Raven im Forum erfolgreiche/abgeschlossene Projekte
    Antworten: 108
    Letzter Beitrag: 25.10.2002, 01:45
  4. Die fabelhafte Welt der Amélie
    Von solanum im Forum Technisches Off-Topic
    Antworten: 3
    Letzter Beitrag: 26.04.2002, 14:18
  5. Unsere Welt
    Von zeec im Forum Technisches Off-Topic
    Antworten: 0
    Letzter Beitrag: 22.05.2001, 17:29

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •