@@ -116,7 +116,7 @@ func TestTokenizeEdgeCases(t *testing.T) {
116116 {key : TokenUnknown , value : s2b ("_" ), offset : 3 , line : 1 , id : 1 },
117117 {key : TokenInteger , value : s2b ("1" ), offset : 4 , line : 1 , id : 2 },
118118 }},
119- {"1..2" , []Token {
119+ {"1..2" , []Token { // https://github.com/bzick/tokenizer/issues/11
120120 {key : TokenInteger , value : s2b ("1" ), offset : 0 , line : 1 , id : 0 },
121121 {key : TokenUnknown , value : s2b ("." ), offset : 1 , line : 1 , id : 1 },
122122 {key : TokenFloat , value : s2b (".2" ), offset : 2 , line : 1 , id : 2 },
@@ -136,6 +136,10 @@ func TestTokenizeEdgeCases(t *testing.T) {
136136 {key : TokenFloat , value : s2b (".1" ), offset : 0 , line : 1 , id : 0 },
137137 {key : TokenFloat , value : s2b (".2" ), offset : 2 , line : 1 , id : 1 },
138138 }},
139+ {"a]" , []Token { // https://github.com/bzick/tokenizer/issues/9
140+ {key : TokenKeyword , value : s2b ("a" ), offset : 0 , line : 1 , id : 0 },
141+ {key : TokenUnknown , value : s2b ("]" ), offset : 1 , line : 1 , id : 1 },
142+ }},
139143 }
140144 for _ , v := range data1 {
141145 stream := tokenizer .ParseString (v .str )
0 commit comments