func TestToken(t *testing.T) { content, err := ioutil.ReadFile("test.gs") if err != nil { t.Fatal(err) } tokenizer := lexer.NewLexer("mem", bytes.NewBuffer(content)) for { token, err := tokenizer.Next() if err != nil { t.Fatal(err) } if token.Type == lexer.TokenEOF { break } fmt.Printf("token %s\n", token) } }
// Compile . func (compiler *Compiler) Compile(filepath string) (err error) { defer func() { if e := recover(); e != nil { err = e.(error) } }() content, err := ioutil.ReadFile(filepath) if err != nil { return err } compiler.parse(lexer.NewLexer(filepath, bytes.NewBuffer(content)), compiler.errorHandler) return }