examples: add more Go examples using the API (#3599)
* examples: go-multimodal * examples: add go-pull-progress * examples: add go-chat * fix
This commit is contained in:
parent
e54a3c7fcd
commit
ba460802c2
3 changed files with 129 additions and 0 deletions
51
examples/go-chat/main.go
Normal file
51
examples/go-chat/main.go
Normal file
|
@ -0,0 +1,51 @@
|
||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"fmt"
|
||||||
|
"log"
|
||||||
|
|
||||||
|
"github.com/ollama/ollama/api"
|
||||||
|
)
|
||||||
|
|
||||||
|
func main() {
|
||||||
|
client, err := api.ClientFromEnvironment()
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
messages := []api.Message{
|
||||||
|
api.Message{
|
||||||
|
Role: "system",
|
||||||
|
Content: "Provide very brief, concise responses",
|
||||||
|
},
|
||||||
|
api.Message{
|
||||||
|
Role: "user",
|
||||||
|
Content: "Name some unusual animals",
|
||||||
|
},
|
||||||
|
api.Message{
|
||||||
|
Role: "assistant",
|
||||||
|
Content: "Monotreme, platypus, echidna",
|
||||||
|
},
|
||||||
|
api.Message{
|
||||||
|
Role: "user",
|
||||||
|
Content: "which of these is the most dangerous?",
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
ctx := context.Background()
|
||||||
|
req := &api.ChatRequest{
|
||||||
|
Model: "llama2",
|
||||||
|
Messages: messages,
|
||||||
|
}
|
||||||
|
|
||||||
|
respFunc := func(resp api.ChatResponse) error {
|
||||||
|
fmt.Print(resp.Message.Content)
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
err = client.Chat(ctx, req, respFunc)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
}
|
47
examples/go-multimodal/main.go
Normal file
47
examples/go-multimodal/main.go
Normal file
|
@ -0,0 +1,47 @@
|
||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"fmt"
|
||||||
|
"log"
|
||||||
|
"os"
|
||||||
|
|
||||||
|
"github.com/ollama/ollama/api"
|
||||||
|
)
|
||||||
|
|
||||||
|
func main() {
|
||||||
|
if len(os.Args) <= 1 {
|
||||||
|
log.Fatal("usage: <image name>")
|
||||||
|
}
|
||||||
|
|
||||||
|
imgData, err := os.ReadFile(os.Args[1])
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
client, err := api.ClientFromEnvironment()
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
req := &api.GenerateRequest{
|
||||||
|
Model: "llava",
|
||||||
|
Prompt: "describe this image",
|
||||||
|
Images: []api.ImageData{imgData},
|
||||||
|
}
|
||||||
|
|
||||||
|
ctx := context.Background()
|
||||||
|
respFunc := func(resp api.GenerateResponse) error {
|
||||||
|
// In streaming mode, responses are partial so we call fmt.Print (and not
|
||||||
|
// Println) in order to avoid spurious newlines being introduced. The
|
||||||
|
// model will insert its own newlines if it wants.
|
||||||
|
fmt.Print(resp.Response)
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
err = client.Generate(ctx, req, respFunc)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
fmt.Println()
|
||||||
|
}
|
31
examples/go-pull-progress/main.go
Normal file
31
examples/go-pull-progress/main.go
Normal file
|
@ -0,0 +1,31 @@
|
||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"fmt"
|
||||||
|
"log"
|
||||||
|
|
||||||
|
"github.com/ollama/ollama/api"
|
||||||
|
)
|
||||||
|
|
||||||
|
func main() {
|
||||||
|
client, err := api.ClientFromEnvironment()
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
ctx := context.Background()
|
||||||
|
|
||||||
|
req := &api.PullRequest{
|
||||||
|
Model: "mistral",
|
||||||
|
}
|
||||||
|
progressFunc := func(resp api.ProgressResponse) error {
|
||||||
|
fmt.Printf("Progress: status=%v, total=%v, completed=%v\n", resp.Status, resp.Total, resp.Completed)
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
err = client.Pull(ctx, req, progressFunc)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
}
|
Loading…
Reference in a new issue