Seite 1 von 2 12 Letzte
  1. #1
    Avatar von John Gotti
    Registriert seit
    16.07.2014
    Beiträge
    114
    Thanked 84 Times in 46 Posts

    Standard Warum sollte man heutzutage noch die Sprache C verwenden?

    Bei uns an der Schule wird noch immer in C programmiert, was mich zu der Frage brachte, warum man diese mittlerweile doch stark veraltete Sprache noch nutzen sollte. Sie ist über 40 Jahre alt und hat nicht mehr viel gemein mit auch nur annähernd moderner Softwareentwicklung. Sehr fehleranfällig finde ich die dort oft verwendeten Pointer. Das Killer-Argument schlechthin ist in meinen Augen die fehlende Möglichkeit, objektorientiert programmieren zu können. Die fehlende Typsicherheit macht die Sprache ebenfalls nicht gerade attraktiv. Nervig finde ich aber auch, dass Funktionen redundant definiert werden müssen. Damit meine ich den Funktionskopf in der .h Datei, der dann in die cpp Datei kopiert und ausprogrammiert wird.

    Dazu kommen noch diverse Kleinigkeiten. Beispielsweise, dass es keinen Boolean als Datentyp gibt. Klar kann man sich mit einem Int behelfen. Schön ist das aber nicht. Mir hat die Sprache überhaupt nicht gefallen, ich finde Sprachen auf höherem Level wie Java viel besser. Was mich dann zu der Frage begibt, warum sich Schulen das antun.

    Klar gibt es bis heute Bereiche, in denen C prinzipiell Sinn macht. Vor allem wenn es um hardwarenahe Dinge geht. Dort soll man die Sprache ruhig nutzen, wenn es keine besseren Alternativen gibt bzw. diese schwere Nachteile wie deutlich schlechtere Performance haben. In allen anderen Bereichen kann ich es nicht verstehen und finde, man sollte sich von C dort distanzieren, weil man eben auf dem Stand wie vor 30 Jahren entwickelt und die Fehleranfälligkeit deutlich nach oben schießt, wenn ich alleine an Pointer denke die irgendwo hin zeigen oder Zugriffe auf fremde Speicherbereiche.

    Mich verwundert es daher, wieso C immer noch so weit verbreitet zu sein scheint (tiobe-Index sagt aktuell Platz 2).

  2. The Following User Says Thank You to John Gotti For This Useful Post:

    Negok (23.07.2016)

  3. #2

    Registriert seit
    06.06.2016
    Beiträge
    14
    Thanked 3 Times in 2 Posts

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    C ist zum Teil gar nicht so alt, wie man denkt. Die neueste Version C11 wurde tatsächlich erst 2011 auch standardisiert.

    In der Tat ist es so, dass gerade an Schulen sehr gerne C gelehrt wird, weil man dadurch maschinennahes Programmieren lernt. Java oder C# abstrahieren sehr weit von der Maschine, sind quasi sehr "hohe" Hochsprachen, damit sie zum einen selbst sehr systemunabhängig sind (sowohl Java als auch C# lässt sich sehr einfach für alle gängigen Betriebssysteme in einem Rutsch programmieren), während C eine sehr nahe Sprache, eine Low-Level-Hochsprache ist, wenn wir das mal so nennen wollen.

    Die Pointer sind nämlich tatsächlich näher an der Maschine, als es den Anschein macht. Mehr noch, sogar Sprachen wie eben Java und C# verwalten eben die normalen Attribute als Pointer, man bekommt nur wenig davon mit, weil man das selten verwendet (es wäre allerdings sehr wohl möglich, die Referenzen an Methoden zu übergeben, wo wir dann eigentlich wieder nur bei Pointern sind)

    C ist eine wunderbare Sprache, um einigermaßen simple Dinge nicht zu sehr zu verkomplizieren (Assembler wäre für ne einfache Ein- und Ausgabe einfach übertrieben), aber trotzdem performant zu programmieren, wenn man das denn erlernt.

  4. The Following User Says Thank You to bluenavi For This Useful Post:

    Nuebel (23.07.2016)

  5. #3

    Registriert seit
    08.06.2013
    Beiträge
    80
    Thanked 51 Times in 29 Posts

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Ich selbst habe vor kurzem meine Ausbildung zum FIA begonnen und soweit man uns bereits gesagt hat wird C bei uns gar nicht gelehrt.
    Relevant ist für uns HTML5, CSS, Javascript und C#. Wer möchte kann auch zusätzlich noch C++ lernen, dafür werden dann Bücher bereit gestellt, das ganze muss man sich aber mehr oder weniger in Eigenregie aneignen.
    Mit den Worten unserer Lehrer: Sie brauchen später zu 40% Javascript, 30% C# und die restlichen 30% setzen sich aus allen möglichen Sprachen zusammen.
    Ob diese Aussage so stimmt und auch noch zutrifft wenn die Ausbildung abgeschlossen ist, ist jetzt mal so dahingestelt.
    Also scheinbar ist C nicht an jeder Schule relevant.

  6. #4
    Avatar von Bubble
    Registriert seit
    20.11.2011
    Beiträge
    703
    Thanked 510 Times in 327 Posts

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Im Informatik-Studium verwenden wir auch C. Ein nicht unbeträchtlicher Teil sogar. Das fucked mich - sorry - richtig ab. Wir leben im Jahr 2016, wo es nicht mehr auf jedes Byte Speicher ankommt! Jede Platine(, die kaum einer jemals verwenden wird) hat mindestens ein Gigabyte RAM... Sorry, aber das ist nicht mehr zeitgemäß. Ja, es hilft, die Hardware zu verstehen, aber who cares? Jeder Arbeitgeber lacht darüber und wünscht sich mind. Java/C#/C++/div. Scriptsprachen.

    Aber darüber aufregen hilft ja nichts. Unser Dekan meint, es helfe dem Allgemeinverständnis...

  7. The Following User Says Thank You to Bubble For This Useful Post:

    Fitty (30.07.2016)

  8. #5

    Registriert seit
    02.01.2013
    Beiträge
    879
    Thanked 458 Times in 313 Posts

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Bluenavi hat hier schon sehr zutreffendes dazu gesagt.

    Es ist für mich immer wieder erschreckend, wie wenige Menschen doch wissen, was in einem PC genau abläuft, wenn dort Software ausgeführt wird. Ich muß immer lachen, wenn Eltern von ihrem Nachwuchs behaupten, es wären Computer-Gurus, und die wissen gar nichts über Funktionsweisen... sondern wissen nur, welche Tasten sie drücken müssen, damit dieses oder jenes passiert. Tja, der Einäugige ist unter den Blinden halt ein König.

    Ziel der Ausbildung ist es in erster Linie (oder sollte es meiner Meinung nach jedenfalls sein), die Schüler zu lehren, wie Computer funktionieren, und erst in zweiter Linie, sie verwenden zu können, also etwa in einer stark abstrahierenden Hochsprache etwas programmieren zu können. Wenn ich etwas in einer Hochsprache programmieren kann, aber gar nicht weiß, was im Computer dabei eigentlich abläuft, ist das Wissen unvollständig. Natürlich kann man sagen, daß man das auch nicht mehr wissen muß, aber dann stellt sich sowieso die Frage bei 95% der Lehrinhalte an den Schulen, wieso das gelehrt wird, wo man es doch nicht wissen muß, d.h. auch ohne dieses Wissen in unserer Gesellschaft überleben kann. Mehr zu wissen, Hintergründe zu wissen, den Dingen auf den Grund gegangen sein, ist aber immer ein Vorteil. Ich gehöre noch zu jenen, die Assembler gelernt haben (selber natürlich), und zwar nicht nur für x86-Architektur, sondern für viele andere Prozessortypen, und ich kann nur sagen, daß es mir überhaupt nicht geschadet hat. Das Lernen einer Programmiersprache als qualvoll zu empfinden deutet sowieso schon auf eine falsche Einstellung hin. Man macht es notgedrungen, weil es auf dem Lehrplan steht, aber findet es ansonsten öde. Und wenn man was ödes macht, soll es wenigstens für was nützlich sein. Wer hingegen Spaß am Programmieren hat, dem ist es egal, mit welcher Sprache er diesen Spaß haben kann. Der lernt dann auch schnell ne neue.

    Genauso schlecht, wie die tieferen Zusammenhänge nicht zu lehren, ist es aber natürlich auch, die ganz modernen Prinzipien der Softwareentwicklung wegzulassen. C zu lehren und sonst nichts wäre auch viel zu wenig, sondern igrendeine objektorientierte Sprache sollte auch durchgenommen werden. Sowie natürlich moderne Methoden und Hilfsmittel wie Agile Programming, Scrum, Design Patterns usw. usf. Und den Webkomplex (HTML, CSS, JS) nicht vergessen! Die Millionen inzwischen entstandenen JS-Frameworks wird man allerdings weglassen müssen, da ansonsten die Ausbildung erst im Rentenalter beendet werden könnte.

    - - - Aktualisiert - - -

    Zitat Zitat von Bubble Beitrag anzeigen
    Wir leben im Jahr 2016, wo es nicht mehr auf jedes Byte Speicher ankommt! Jede Platine(, die kaum einer jemals verwenden wird) hat mindestens ein Gigabyte RAM... Sorry, aber das ist nicht mehr zeitgemäß.
    Ich glaube nicht, daß es so ist, wie Du behauptest. Im Zeitalter des "Internets der Dinge", d.h. der Computerifizierung aller möglichen Alltagsgegenstände, kommt es wieder zu einer Multiplikation der Kleinstcomputer, bei denen Speicherplatz dann doch wieder eine Rolle spielt. Ob etwa die Computer in den Kühlschränken (um nur mal ein Beispiel zu nennen) demnächst mit 1 GB RAM ausgeliefert werden, ist sehr die Frage. Es gibt eine Renaissance der Kleinstcomputer (z.B. SoC), die mit relativ beschränkten Ressourcen auskommen müssen.
    Geändert von freulein (23.07.2016 um 11:06 Uhr)

  9. The Following User Says Thank You to freulein For This Useful Post:

    Nuebel (23.07.2016)

  10. #6
    Avatar von Nuebel
    Registriert seit
    23.11.2013
    Beiträge
    446
    Thanked 361 Times in 236 Posts

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Zitat Zitat von John Gotti
    Das Killer-Argument schlechthin ist in meinen Augen die fehlende Möglichkeit, objektorientiert programmieren zu können.
    In C kann man sehr wohl objektorientiert programmieren. Es sieht nur nicht schön aus, aber dafür lernt man sehr, sehr viel mehr darüber wie die Objektorientierung überhaupt funktioniert. In C kann man sogar generisch programmieren.
    Zitat Zitat von John Gotti
    wenn ich alleine an Pointer denke die irgendwo hin zeigen oder Zugriffe auf fremde Speicherbereiche.
    Zeiger werden zu Unrecht verteufelt. Bei richtigem Umgang sind sie ein extrem mächtiges und wichtiges Mittel. Aber dazu muss sich mit ihnen auch beschäftigen; ein halbherziges "ach, ich verstehe das schon" reicht nicht.

    Ich programmiere sehr gerne in C, weil der Sprachkern (+ Standardbibliothek) so klein, die Möglichkeiten aber unendlich sind. Wenn man erstmal die ganzen gängigen Datenstrukturen, z.B. eine doppelt verlinkte Liste, selbst implementiert hat, wird man ohne Zweifel auch ein besserer Programmierer in anderen, abstrakteren Sprachen, weil man eben die ganzen Feinheiten und Anwendungsfälle der verschiedenen Datenstrukturen kennt und bewusster einzusetzen weiß.

    Bezüglich der Aufteilung in .h und .c(pp) Dateien stimme ich dir aber zu, das mag ich selber nicht. Hat für mich nur einen Vorteil: in .h Dateien kommentiere ich, was die Funktionen machen und in .c(pp) Dateien kommentiere ich das Wie.

  11. The Following 2 Users Say Thank You to Nuebel For This Useful Post:

    freulein (24.07.2016), Newton (13.09.2016)

  12. #7
    Avatar von DMW007
    Registriert seit
    15.11.2011
    Beiträge
    6.080
    Thanked 9.118 Times in 2.995 Posts
    Blog Entries
    5

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Zu klären wäre wohl erst mal die Frage, um welche Schule es geht. An einem allgemeinbildendes Gymnasium halte ich es für Unsinnig, den Schülern C beizubringen - Vor allem beim jetzigen Lehrplan. Viel mehr sollten den Kindern und Jugendlichen dort was IT angeht lieber Dinge beigebracht werden, die schon die meisten Eltern nicht beherrschen, aber für einen mündigen Nutzer im Alltag essenziell sind. Könnte man ganz grob unter dem Schlagwort Medienkompetenz zusammenfassen. In allen Bereichen, in denen es tiefer in die IT geht (z.B. Ausbildung im IT-Bereich oder Studium) dagegen macht es durchaus Sinn, um die Hintergründe zu verstehen. Das gibt es ja bei einigen Themen. Subnetze händisch berechnen macht kein Mensch im Alltag. Trotzdem lernt man es sowohl in Ausbildung als auch Studium, um die Hintergründe zu verstehen.

    So lange es in dem Rahmen bleibt, macht das ganze auch Sinn. Mal einen Blick auf die Zusammenhänge zu werfen ist gut, aber jede Kleinigkeit detailliert zu betrachten würde den Rahmen sprengen. Zumal C im Bereich der Desktop-Entwicklung wie schon angesprochen aus gutem Grunde immer seltener wird, ausgenommen dem Betriebssystem selbst. Gerade solche Dinge wie Zeiger oder Pufferüberläufe sind häufig für Softwarefehler und auch daraus resultierende Sicherheitslücken verantwortlich. Wenn ich eine Desktopanwendung für Windows programmieren will, handle ich mir mit Zeigern meist nur ein unnötiges Sicherheitsrisiko ein. In .NET werden diese daher nicht ohne Grund als unsicherer Code betrachtet und sind nur nach ausdrücklicher Aktivierung überhaupt nutzbar. Referenzparameter z.B. sind ein schönes Beispiel, das sich problemlos automatisieren lässt. Damit braucht man keinen fehleranfälligen Menschen mit herumspielen lassen.

    Man darf nicht vergessen: Im Alltag eines Softwareentwicklers zählt das Ergebnis. Ob man super dynamische Arrays selbst entwickelt oder einfach die Implementierungen eines Frameworks wie .NET verwendet, interessiert den Kunden nicht. Der will eine Software die das gewünschte erledigt, mit möglichst wenig Seiteneffekten. Ob das Programm dann dank der optimierten Eigenentwicklung ein paar MB mehr oder weniger RAM verbraucht, hat keine nennenswerte Relevanz. Seitdem RAM billig wie nie ist, ohnehin nicht. Das Motto "Hardware ist billig, Programmierer sind teuer" ist schon etwas älter und gilt heute mehr denn je. Daher vertrete ich den Standpunkt: Sich die Hintergründe anzuschauen und zu Lernzwecken gerade solche Dinge wie verkettete Listen auch mal selbst zu entwickeln ist sinnvoll, sollte aber im Rahmen bleiben und im Ist-Stand münden.

    Was das IoT angeht: Grundsätzlich versucht man hier natürlich relativ ressourcensparend zu arbeiten. Auch was den Stromverbrauch angeht, gerade bei Geräten die 24/7 laufen wie ein Kühlschrank. Aber auch hier kostet Speicher nichts mehr. Der Raspberry Pi Zero beispielsweise ist sehr kompakt, hat aber trotzdem 512 MB Arbeitsspeicher und ist kaum größer als ein USB-Stick. Als Endkunde kann man ihn für gerade mal 5 US-Dollar erwerben. Und mit 512 MB Ram kann man schon relativ viel anstellen, was High-Leven Programmiersprachen angeht. Ich denke was dieser Punkt angeht, habt ihr beide Recht: Es spielt noch eine Rolle und es werden nicht alle Geräte mit 1 GB RAM auf den Markt kommen. Aber die Prioritäten haben sich in den letzten Jahren doch stark verschoben, weil sich eben die Technik weiter entwickelt hat.

    Außer acht lassen darf man auch nicht, dass eine zusätzliche Abstraktionsschicht (beim Raspberry hauptsächlich Python) den Aufwand deutlich reduzieren kann. Sieht man ja generell am Raspberry Pi sehr schön, wie einfach man mit sehr minimalistischen Kenntnissen z.B. eine LED ansteuern kann. Das sind wenige Zeilen Code zusammen mit einem absoluten Minimum an Linux-Wissen. Derart viele Möglichkeiten mit wenig Aufwand und vor allem zu dem Preis (selbst der vollwertige Raspberry kostet nur ca 40 Euro) wäre noch vor wenigen Jahren undenkbar gewesen. Gerade für Startups ist das natürlich ein großer Vorteil. Daher sind solche Einplatinencomputer bei denen auch ziemlich beliebt.


  13. #8

    Registriert seit
    02.01.2013
    Beiträge
    879
    Thanked 458 Times in 313 Posts

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Eine Anmerkung am Rande noch... es gibt in vielen Firmen, besonders größeren, noch viel sog. Legacy-Code. Auf IBM-Großrechnern ist das meist in COBOL geschrieben, auf UNIX-Plattformen in C. Da kann es auch mal passieren, daß man goldrichtig ist, wenn man mit Make und C umgehen kann, beruflich. Aber ich gebe zu, diese Fälle werden natürlich langsam abnehmen, da die Firmen versuchen, die Systeme peu a peu zu ersetzen.

    Was den Raspberry angeht, so handelt es sich bei minimalistischen Lösungen ja meistens um Python. Ich gebe zu, das ist wirklich einfach und trotzdem sehr mächtig. Dennoch gibt es natürlich im Unix-Bereich massenhaft Open-Source Software, die in C programmiert ist. Es wird niemand sagen: So, Apache HTTP Server werden wir jetzt mal nach Python portieren, C ist nicht mehr zeitgemäß oder einfach zu kompliziert.

  14. The Following User Says Thank You to freulein For This Useful Post:

    DMW007 (24.07.2016)

  15. #9
    Avatar von DMW007
    Registriert seit
    15.11.2011
    Beiträge
    6.080
    Thanked 9.118 Times in 2.995 Posts
    Blog Entries
    5

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Klar es gibt immer noch solche Szenarien. Gerade in der Industrie, dort herrschen ja ganz andere Lebenszyklen. Bei uns sind z.B. Produktionsmaschinen mit Windows 2000/XP bis heute völlig normal. Wie alt die Software mindestens ist, kann man sich also denken. Und ein Ende ist nicht absehbar. Im Gegenteil, bei den netzwerkfähigen Maschinen macht man sich Gedanken, wie diese mit zusätzlichen Schutzmaßnahmen langfristig möglichst sicher betrieben werden können. So lange es sich um eingebettete Systeme handelt die ordnungsgemäß funktionieren und kein Sicherheitsrisiko erzeugen, ist dagegen grundsätzlich auch nichts einzuwenden.

    Im Gegenteil es ist sinnvoll, wenn durch lange Lebenszyklen Budget und Umwelt geschont werden. Gerade bei Systemen/Maschinen die heute noch dasselbe machen wie vor 10 Jahren wäre es unsinnig diese auszutauschen, nur damit die gleiche Software auf der aktuellsten Windows-, Unix-, oder sonst was Version läuft. Ob das zukünftig im Rahmen der zunehmend angestrebten umfassenderen Vernetzung solcher Geräte (Industrie 4.0) auch noch funktionieren wird, ist ein anderes Thema und sei dahingestellt.

    Beispiel Apache/Webserver:

    Was Apache angeht hast du Recht. Webserver sind ein Paradebeispiel für Anwendungen, die bis heute bewusst in C geschrieben werden. Und das trifft nicht nur auf Urgesteine wie den Apache zu, die prozessgesteuert arbeiten und dadurch bei stark frequentierten Seiten relativ viel Overhead erzeugen. Auch moderne und hochperformante Alternativen wie Nginx sind in C entstanden. Hier wird verständlicherweise in erster Linie die Performance eine Rolle spielen. Abstraktionsschichten verursachen Overhead. Eine moderne Seite lädt einige CSS/JS Dateien und je nach Art meistens auch noch etliche Bilder sowie die eine oder andere Schrift nach - pro Anfrage!

    40-50 Anfragen je Seitenaufruf sind somit keine Seltenheit. Gerade auf Portalen, News-Seiten, Blogs und ähnlichen werden vor allem viele Bilder geladen. Mit zahlreichen Tracking- und Werbescripten ist man da auch schnell bei 100-150 und mehr. Wenn durch den Overhead jede Anfrage einige Millisekunden langsamer ist, kann sich die Seite beim Nutzer spürbar langsamer aufbauen. Vor allem wenn die Seite von der technischen Struktur her älter ist, aber viel JavaScript einsetzt. Das befindet sich dann nämlich meist im Bereich des Bodys oder sogar im Header. Als Konsequenz wird das Rendering geblockt, weil der Browser das Script erst herunterladen und ausführen muss.

    Und gerade bei größeren Seiten spielt es dann auch eine Rolle, ob pro Seitenaufruf ein paar MB RAM mehr oder weniger benötigt werden. Je nach Größe sind dadurch auch ein paar Server mehr oder weniger nötig. Das ist dann eben doch was anderes als ein Desktop-Client, bei dem ich heutzutage von mindestens 4 GB RAM ausgehen kann. Oder ein Raspberry, der je nach Modell 0,5 bis 1 GB RAM besitzt, und auf dem auch eher ineffizient programmierte Scripte meist noch problemlos laufen.

    Fazit:

    Letztendlich kann man sagen, dass C bis heute durchaus noch seine Daseinsberechtigung hat und sich dies auch nicht so bald ändern wird. Aber es kommt eben immer darauf an. Pauschal lässt sich nicht sagen, man sollte am besten alles in C machen oder die Sprache komplett wegwerfen und stattdessen besser eine andere nutzen. Für einen bestimmten Zweck gibt es Werkzeuge die sich perfekt dafür eignen, andere mit Einschränkungen und manche gar nicht.

    Ein Softwareentwickler sollte im Rahmen seiner Ausbildung daher in erster Linie das abstrakte entwickeln an sich lernen, und nicht die Implementierung in Sprache X. Ob ich als Entwickler Spaß an Zeigern oder prozentualem Code habe oder lieber objektorientiert auf einem höheren Level arbeiten möchte, sei dahingestellt. Dafür setzt man als Entwickler seinen Schwerpunkt, ob man nun eher in den Hardwarebereich geht oder nicht, Desktop- oder Webanwendungen entwickelt usw. Grundsätzlich ist ein fähiger Programmierer aber in der Lage, eine Anwendung in Java eben so umzusetzen wie in C oder Python. Er muss sich "nur" in die jeweilige Sprache und ihre Besonderheiten einarbeiten und mit diesem erworbenen Wissen die gewünschten Funktionen umsetzen.

    In der Regel geht man hier aber auch nicht von einem Extrema ins andere und lässt einen Webentwickler der jahrelang objektorientiert mit z.B. Python programmiert nun auf einmal irgendwelche Gerätetreiber schreiben. Denn hier ist natürlich ein Großteil der angesammelten Erfahrung nicht weiterverwendbar und muss sich neu angeeignet werden. Einen C# Entwickler auf Java loszulassen oder umgekehrt ist dagegen schon deutlich realistischer und sinnvoller. Wobei natürlich auch hier eine gewisse Ein- und Umgewöhnungsphase notwendig ist. Besonders wenn mit speziellen Frameworks gearbeitet wird.


  16. #10

    Registriert seit
    26.10.2014
    Beiträge
    17
    Thanked 2 Times in 1 Post

    Standard AW: Warum sollte man heutzutage noch die Sprache C verwenden?

    Hallo,

    ich hab in meiner Ausbildung auch die Sprache C kennengelernt und mit ihr zu programmieren.
    Sie dient sehr gut als Einsteiger Programmiersprache und es kann mit ihr die Grundsubstanz einer Programmiersprache erletn werden. Assembler oder Cocol ist zu dicht an Maschinensprache und der "prozessorsteuerung" dran.
    C#, C++, Java sind zwar objektorientiert, können aber dadurch nicht das Grundgefüge einer Programmiersprache vermitteln.

    Darüberhinaus gibt es dann noch alles in Visual, also die Komplettbausteine. auch hier muß dennoch eine Programmiersprache vorher bekannt sein, sonst kann man keine Funktion mit Inhalt programmieren.

    Deshalb empfielt es sich als "einfache" und Einsteiger Programmiersprache C zu verwenden.

Seite 1 von 2 12 Letzte

Ähnliche Themen

  1. Antworten: 23
    Letzter Beitrag: 15.08.2023, 11:21
  2. Antworten: 89
    Letzter Beitrag: 01.11.2018, 16:45
  3. Antworten: 106
    Letzter Beitrag: 23.05.2017, 09:14
  4. Warum trägt man heutzutage keine Hüte mehr?
    Von Gameboy9 im Forum Lifestyle & Fashion
    Antworten: 19
    Letzter Beitrag: 21.07.2015, 11:52
  5. Warum man kein iPhone kaufen sollte
    Von Festplatte im Forum iOS
    Antworten: 114
    Letzter Beitrag: 26.09.2014, 20:36
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.