Akisamb

joined 2 years ago
MODERATOR OF
[–] Akisamb 2 points 2 months ago (1 children)

Par pitié, arrêtons de confondre Arabe et musulmans. Je ne sais même pas si la majorité des Arabes vivant en France sont religieux.

[–] Akisamb 2 points 3 months ago

Hallo,

Ich benutze boost für Lemmy. Ein Nachteil : Es gibt anzeigen in der App.

[–] Akisamb 2 points 3 months ago

Tu as des subsides pour la LAMAL. Pour vivre à 1300 tu es obligé de les utiliser.

Je confirme 1300 c'est obligatoirement une colocation ou en couple et tu ne vas jamais au restaurant.

Mais à 4000 tu n'as plus toutes ces contraintes. Quand j'ai touché 3600 CHF pour la première fois j'avais vraiment l'impression d'être riche. Je pouvais aller au restaurant tous les jours, partir à l'autre bout de l'Europe sur un coup de tête etc...

[–] Akisamb 1 points 3 months ago (4 children)

4000 balles et c’est la galère avec ça

Faut pas abuser, j'ai vécu il y a 3 ans avec 1300 balles par mois à Lausanne et c'était pas si juste que ça.

4000 tu as une assez bonne qualité de vie.

J'ajouterai que ça dépend des cantons, je connais des gens dans le Valais qui ne gagnent que 2800 CHF par mois en travaillant a plein temps (41h semaine).

[–] Akisamb 3 points 3 months ago

Thank you, handling these subjects is already annoying at family dinners. I can't imagine handling this on an online forum.

[–] Akisamb 8 points 4 months ago

Tu trouves la forme d'exploitation faite par une entreprise aussi mauvaise que celle faite par ces trafiquants de drogues?

[–] Akisamb 11 points 4 months ago (5 children)

They've got thunderbird which is as far as I know the only serious alternative to outlook.

[–] Akisamb 3 points 5 months ago

Same issue here.

[–] Akisamb 2 points 5 months ago (1 children)

Pas forcément d'accord pour les 1,4 milliards pour la Seine. A ma connaissance il n'y a pas eu de mesures d'urgence et temporaires. Toute l'infrastructure va rester en place.

Après c'est vrai que ça coûte 140 euros par habitant d'Ile de France, ce qui n'est pas négligeable. Mais de la a appeler ça un caprice.

[–] Akisamb 4 points 5 months ago

Ton article parle d'autre chose. Il parle de l'année 2023 par rapport à l'année 2022. La on compare le premier semestre 2024 au premier semestre 2023.

J'ai répondu par rapport au secteur de l'industrie dans un autre commentaire, pour ce secteur là ça semble être une bonne chose. Pour les autres secteurs en forte baisse, je n'ai pas fait d'analyse, mais il n'y a pas de raison que cette baisse soit liée à des choses négatives. Par exemple une grosse partie des réductions sont dues à un hiver clément.

Le seul point noir, c'est les transports. On sait très bien comment réduire les émissions, vu que la demande est élastique par rapport au prix. Mais plus personne n'osera mettre en place une taxe CO2 (merci les gilets jaunes). Le RN promet même de retirer les taxes sur l'essence (quitte même à ne pas respecter les règles de l'UE), histoire qu'on soit encore plus dépendant des dictatures.

[–] Akisamb 4 points 5 months ago (1 children)

Peut-être pour la baisse de 5% des émissions de l'industrie. Mais pas pour les autres secteurs.

C'est aussi possible qu'il n'y ait pas eu de baisse dans l'industrie. Ton article parle de faillite d'entreprises, ce qui ne veut pas dire une cessation d'activité économique, juste que le propriétaire a perdu son argent.

Le premier exemple de ton article, je la connais bien. C'est Ascometal, j'ai suivi la saga avec Marsactu. L'usine continuera de produire après sa reprise avec juste l'arrêt de l'activité du fil. L'entreprise racheteuse va aussi investir pour ajouter un four électrique pour réduire l'impact carbone de l'entreprise.

Ce qu'il faudrait regarder c'est la production industriel, qui est assez stable :

La production du premier trimestre 2024 est légèrement supérieure à celle du premier trimestre 2023 dans l’industrie manufacturière (+0,4 %) comme dans l’ensemble de l’industrie (+0,3 %).

 

cross-posted from: https://lemmy.one/post/13942290

Abstract: We present Scallop, a language which combines the benefits of deep learning and logical reasoning. Scallop enables users to write a wide range of neurosymbolic applications and train them in a data- and compute-efficient manner. It achieves these goals through three key features: 1) a flexible symbolic representation that is based on the relational data model; 2) a declarative logic programming language that is based on Datalog and supports recursion, aggregation, and negation; and 3) a framework for automatic and efficient differentiable reasoning that is based on the theory of provenance semirings. We evaluate Scallop on a suite of eight neurosymbolic applications from the literature. Our evaluation demonstrates that Scallop is capable of expressing algorithmic reasoning in diverse and challenging AI tasks, provides a succinct interface for machine learning programmers to integrate logical domain knowledge, and yields solutions that are comparable or superior to state-of-the-art models in terms of accuracy. Furthermore, Scallop's solutions outperform these models in aspects such as runtime and data efficiency, interpretability, and generalizability.

 

cross-posted from: https://lemmy.ml/post/13088944

5
The Annotated S4 (srush.github.io)
submitted 9 months ago by Akisamb to c/machine_learning
 

abstract :

How do sequence models represent their decision-making process? Prior work suggests that Othello-playing neural network learned nonlinear models of the board state (Li et al., 2023). In this work, we provide evidence of a closely related linear representation of the board. In particular, we show that probing for "my colour" vs. "opponent's colour" may be a simple yet powerful way to interpret the model's internal state. This precise understanding of the internal representations allows us to control the model's behaviour with simple vector arithmetic. Linear representations enable significant interpretability progress, which we demonstrate with further exploration of how the world model is computed.

 

Paper here : https://arxiv.org/pdf/2312.00752.pdf

Abstract :

Foundation models, now powering most of the exciting applications in deep learning, are almost universally based on the Transformer architecture and its core attention module. Many subquadratic-time architectures such as linear attention, gated convolution and recurrent models, and structured state space models (SSMs) have been developed to address Transformers’ computational inefficiency on long sequences, but they have not performed as well as attention on important modalities such as language. We identify that a key weakness of such models is their inability to perform content-based reasoning, and make several improvements. First, simply letting the SSM parameters be functions of the input addresses their weakness with discrete modalities, allowing the model to selectively propagate or forget information along the sequence length dimension depending on the current token. Second, even though this change prevents the use of efficient convolutions, we design a hardware-aware parallel algorithm in recurrent mode. We integrate these selective SSMs into a simplified end-to-end neural network architecture without attention or even MLP blocks (Mamba). Mamba enjoys fast inference (5× higher throughput than Transformers) and linear scaling in sequence length, and its performance improves on real data up to million-length sequences. As a general sequence model backbone, Mamba achieves state-of-the-art performance across several modalities such as language, audio, and genomics. On language modeling, our Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation.

 

Was looking at EAP6 release notes and was pleasantly surprised to see this there.

I'm quite happy that intellij provides on premise solutions, it gives a small chance of this coming to my job one day. I believe this will be quite useful for repetitive code and certain types of tests.

view more: next ›