Unicode/UTF-8 Benutzer |
||
---|---|---|
#0
| ||
19.08.2006, 13:18
Member
Beiträge: 5291 |
||
|
||
21.08.2006, 10:06
Member
Beiträge: 3306 |
#2
Windows unterstützt Unicode glaub ich schon seit NT und verwendet intern seitdem auch nichts anderes. Anwendungen gibt es aber glaub ich eher kaum welche. Ich hab mal nach einem Unicode fähigen Texteditor gesucht und da gab es nicht gerade viel. Ich hab auch selbst mal ein Unicode-fähiges Programm in C++ geschrieben und das war ein ziemlicher Albtraum.
Unter Windows gibt es für jede Stringfunktion zwei verschiedene Arten, einmal die "normale" und die Unicode-Version. Also existieren: SetWindowTextA (ANSI) SetWindowTextW (Wide) Damit man das nicht immer im Hinterkopf behalten muss gibt es zwei defines "UNICODE" und "MBCS" also wird bei "#define UNICODE" immer die Wide-Version einer Stringfunktion verwendet. Genauso existiert ein Datentyp "TCHAR" der je nach define entweder ein char oder ein wchar_t ist. Und es gibt auch _t-Funktionen also z. B. _tprinf, weil printf standardmäßig ANSI ist. Auch hier wird dann je nach define die ANSI (printf) oder Wide (_wprintf) Version verwendet. So weit ist es noch halbwegs simpel. Ärgerlich wird es wenn man (wie ich damals) mehrere Libs hinzulinkt und einige davon Unicode unterstützen und wiederrum andere nicht. Dann muss man hin und her konvertieren und immer wissen in welchem Format ein String jetzt gerade ist. Bei File I/O, Ausgaben auf der Konsole oder ähnlichem muss man natürlich auch aufpassen. Mehr dazu: http://www.i18nguy.com/unicode/c-unicode.html Insgesamt ist der Aufwand also ziemlich groß und wo der Nutzen liegt, wenn man nicht gerade japanische Zeichen ausgeben will, ist mir nicht wirklich klar __________ Bitte keine Anfragen per PM, diese werden nicht beantwortet. Dieser Beitrag wurde am 21.08.2006 um 10:11 Uhr von asdrubael editiert.
|
|
|
||
21.08.2006, 10:11
Member
Themenstarter Beiträge: 5291 |
#3
Zitat Windows unterstützt Unicode glaub ich schon seit NT und verwendet intern seitdem auch nichts anderes. Anwendungen gibt es aber glaub ich eher kaum welche. Ich hab mal nach einem Unicode fähigen Texteditor gesucht und da gab es nicht gerade viel. Ich hab auch selbst mal ein Unicode-fähiges Programm in C++ geschrieben und das war ein ziemlicher Albtraum.Haha da hab ich leider etwas anderes erlebt. Ich arbeite gerade an einem Porjekt bei dem es um Informationen für etwas bestimmtes geht - diese Informationen sollen in mehreren Sprachen verfügbar sein. Jemand den ich kenne hat mir eineige xml dokumente in seiner sprache übersetzt (mit nativen Zeichen) und diese mußte ich dann doch erstmal nach UTF-8 konvertieren. Soweit wie ich weiß benutzt windows immer noch seine internen windows-* charsets. Naja diese Person nutzte auch windows XP deswegen hab ich auch diesen Thread eröffnet. Konnte nicht viel Informationen darüber finden. Zitat Insgesamt ist der Aufwand also ziemlich groß und wo der Nutzen liegt, wenn man nicht gerade japanische Zeichen ausgeben will, ist mir nicht wirklich klarKonformität, Portierung - siehe oben. Das ist ja genau mein Problem, es brauchen keine japanischen Kanjis zu sein - es reichen schon italiänische Buchstaben die im normalen deutschen charset gar nicht enthalten sind etc. __________ E-Mail: therion at ninth-art dot de IRC: megatherion @ Freenode |
|
|
Ich möchte nur mal gerne wissen wer denn hier alles UTF-8 benutzt und sogar weiß
was es ist?
Oder anders ausgedrückt will nur mal wissen wie bekannt UTF-8 hier denn ist
Für alle die nicht wissen was es ist:
http://de.wikipedia.org/wiki/Utf-8
Wie sieht's denn zur Zeit mit der UTF-8 Unterstüzung in Windows aus?
Kennt sich jemand damit aus? Interesisert das überhaupt jemanden?
__________
E-Mail: therion at ninth-art dot de
IRC: megatherion @ Freenode