My bad. I think I confused this with the previous popular Unigine benchmarks.
For relative comparison sure but isn't it starting to become irrelevant these days? No Vulkan nor Raytracing nor Compute.
It doesn't appear to be FLOSS, is it?
Tu parles plutôt du titre choisi par le posteur là. Le titre de l'article est :
"Utiliser ChatGPT peut nous rendre plus performants, mais aussi plus idiots". Possibilité donc moins péremptoire quoiqu'un peu aguicheur.
Et ensuite dans l'article:
- Une frontière mouvante entre ce que l’IA sait faire ou ne pas faire
- Des idées plus approfondies mais moins variées
- Les humains peuvent se laisser influencer par le robot, parfois pour le pire
Je ne m'épanche pas sur le vocabulaire de l'article qui est ahem... bref. Mais grosso-modo à la lecture, ça résume assez fidèlement et honnêtement l'étude et le titre n'est pas choquant pour moi.
Ça a l'air à la fois génial et effrayant. Si j'étais mauvaise langue je dirais "un truc de dev quoi".
BDD en SaaS, aucune info RGPD, email professionel requis et mail arrivant dans ta boite pro. Genre si c'est des connards on peut te faire chier... mouais...
Ma réaction de départ aurait été : "c'est pas grave, ça filme juste quand on appuie dessus et en plus plutôt le pif de la personne qui sonne que toute la co-pro", mais en fait il y a un détecteur mouvement dans cette connerie !
Et il semblerait que la caméra puisse s'activer sur simple mouvement. A discuter absolument du coup parce que faire confiance à un tiers pour les réglages, sans compter le fait que c'est truc on tendance à tout réinitialiser de temps à autre parce qu'il y a une MAJ non compatible etc.
https://www.wired.co.uk/article/ring-doorbell-camera-amazon-privacy
That's because they imply DLSS 3.5 usage. Which isn't too unfair but a bit misleading.
Je sais pas, au fond ça rejoint le chauvinisme et le "réactionarisme" habituels vu que cette fois l'action va à l'encontre d'un symbole US / bobo.
Alright, thanks for the info & additional pointers.
Well the thing with those "enabled EAC on Linux to see where it gets us" is it's non-binding and non-commital. And it's made explicitely that way so that support cannot be demanded from Linux users unlike Windows users who are explicitely mentioned in the systems supported by the game.
We legally don't have any ground to be supported the same as Windows users.
That's the problem with non official support. You're basically in an unending beta-testing phase. Theres' no easy solution here I'm afraid.
Ah thank you for the trove of information. What would be the best general knowledge model according to you?
This. It's not easy or trivial but as a long term strategy, they should already plan investing efforts into consolidating something like Godot or another FOSS engine. They should play like you calm down an abuser you can't just escape yet while planning their demise when the time has come.
@nosnahc c'est deux commentaires différents, j'imagine que les deux méthodes sont possibles. Pour ce qui est de la légalité, j'y ai pas réfléchi effectivement. Je vire la soumission ?
Hum ? je supprime du coup ?
Copie d'un commentaire intéressant sur Reddit:
Copie d'un commentaire intéressant sur Reddit:
> > > ImNoOneLeVraiPirate > > > > Windows 11 c'est dla merde mais ça reste mon avis. > > > > Si t'as vraiment besoin d'y passer pour X raisons, télécharge un iso (normalement microsoft en met un a disposition) et ajoute le sur une clé USB bootable avec Rufus. T'auras plus qu'a brancher la clé usb et boot dessus pour démarrer l'installation de Windows 11. > > > > Ensuite il te faudra surement l'activer, pour cela rien de compliqué tu peux utiliser les clé windows infinies Windows 10 interne à Microsoft qui ont été trouvées > > > > Voici la liste des clés : > > > > Win 10 Home: TX9XD-98N7V-6WMQ6-BX7FG-H8Q99 > > > > Win 10 Home N: 3KHY7-WNT83-DGQKR-F7HPR-844BM > > > > Win 10 Home Single Language: 7HNRX-D7KGG-3K4RQ-4WPJ4-YTDFH > > > > Win 10 Home Country Specific: PVMJN-6DFY6-9CCP6-7BKTT-D3WVR > > > > Win 10 Professional: W269N-WFGWX-YVC9B-4J6C9-T83GX > > > > Win 10 Professional N: MH37W-N47XK-V7XM9-C7227-GCQG9 > > > > Win 10 Education: NW6C2-QMPVW-D7KKK-3GKT6-VCFB2 > > > > Win 10 Education N: 2WH4N-8QGBV-H22JP-CT43Q-MDWWJ > > > > Win 10 Enterprise: NPPR9-FWDCX-D2C8J-H872K-2YT43 > > > > Win 10 Enterprise N: DPH2V-TTNVB-4X9Q3-TJR4H-KHJW4 > > > > > > > > Ouvre un powershell en mode Admin et suis les 3 étapes, "Key" correspond à la clé Windows correspondantà la version que tu a installé. Tu la copie-colles sans les " " : > >
>
>
> > slmgr /ipk "Key" > slmgr /skms kms8.msguides.com > slmgr /ato > >
>
>
>
> Bravo tu a désormais installé Windows 11 et l'a activé gratuitement ET légalement !
>
>
---
> > > noril0r > >
> > > Ouvre Powershell. > >
>
>
> irm https://massgrave.dev/get | iex
>
>
Don't be sorry, you're being so helpful, thank you a lot.
I finally replicated your config:
localhost/koboldcpp:v1.43 --port 80 --threads 4 --contextsize 8192 --useclblas 0 0 --smartcontext --ropeconfig 1.0 32000 --stream "/app/models/mythomax-l2-kimiko-v2-13b.Q5_K_M.gguf"
And had satisfying results! The performance of LLaMA2 really is nice to have here as well.
Thanks a lot for your input. It's a lot to stomach but very descriptive which is what I need.
I run this Koboldcpp in a container.
What I ended up doing and which was semi-working is:
--model "/app/models/mythomax-l2-13b.ggmlv3.q5_0.bin" --port 80 --stream --unbantokens --threads 8 --contextsize 4096 --useclblas 0 0
In the Kobboldcpp UI, I set max response token to 512 and switched to an Instruction/response model and kept prompting with "continue the writing", with the MythoMax model.
But I'll be re-checking your way of doing it because the SuperCOT model seemed less streamlined and more qualitative in its story writing.
The MythoMax looks nice but I'm using it in story mode and it seems to have problems progressing once it's reached the max token, it appears stuck:
Generating (1 / 512 tokens)
(EOS token triggered!)
Time Taken - Processing:4.8s (9ms/T), Generation:0.0s (1ms/T), Total:4.8s (0.2T/s)
Output:
And then stops when I try to prompt it to continue the story.
I'll try that Model. However, your option doesn't work for me:
koboldcpp.py: error: argument model_param: not allowed with argument --model
Trying to run a local Story telling model with KoboldCpp
Hi,
Just like the title says:
I'm try to run:
With:
- koboldcpp:v1.43 using HIPBLAS on a 7900XTX / Arch Linux
Running :
--stream --unbantokens --threads 8 --usecublas normal
I get very limited output with lots of repetition.
I mostly didn't touch the default settings:
Does anyone know how I can make things run better?
EDIT: Sorry for multiple posts, Fediverse bugged out.