Je me lance. Avant je suis obligé de poursuivre ma présentation. J'ai 59 ans, j'habite Toulon, en France, et depuis l'âge de 22 ans j'ai fait carrière dans l'armée. Avec des coupures, pour des missions "privées" notamment en Afrique (mercenariat). J'ai arrêté très récemment après avoir reçu un grade élevé et des honneurs diverses dont je ne sais que faire d'ailleurs.
L'objet de mon message est clair. C'est mon souhait en tous cas. Je suis Français, j'ai servi mon pays et ses intérêts, en Europe et en Afrique, durant très longtemps et sur environ 30 pays sur les 54 que compte l'Afrique moderne.
Je pense que la place de la France est encore en Afrique et notamment dans sa défense, son industrie, son développement, son histoire.
J'aimerais m'appuyer sur l'aspect religieux qu'a su gérer la France, grand pays laïque mais pétri de Christianisme, en Afrique noire par exemple. Je crois que mon pays a su fédérer d'innombrables tribus dressées les unes contre les autres hier et qui aujourd'hui sont soudées par une langue, une croyance (le Christ), des valeurs humaines (droits de l'homme), une vitalité économique.
Pourquoi dénigrer ainsi comme certains le font parfois sur ce forum, les Français (blancs ou non blancs, aucune importance) et leur participation historique à l'existence même de certains pays Africains ?
Selon moi la place de la France, de son armée, de son économie serait toujours positive en Afrique.
Regardez ce qui se passe au Nord Cameroun, et au Nigéria. Ne devrait-on pas intervenir, en tant que pays fort ?
Je ne suis pas non plus hypocrite. Je sais très bien, pour y avoir participé, que parfois certains intérêts priment sur la justesse des choses. Mais, au final, le dessein est grand, ne vaut-il pas mieux quelques sacrifices de ci de là afin de promouvoir un continent tout entier ?
Merci pour attention et je m'attends à un déluge.
Mais j'en ai vu d'autres.