mirror of https://github.com/gobwas/glob.git
remove bufio
This commit is contained in:
parent
131e5cbf2d
commit
accfc6f397
222
lexer.go
222
lexer.go
|
@ -1,12 +1,9 @@
|
||||||
package glob
|
package glob
|
||||||
|
|
||||||
import (
|
import (
|
||||||
"bufio"
|
|
||||||
"bytes"
|
"bytes"
|
||||||
"fmt"
|
"fmt"
|
||||||
"github.com/gobwas/glob/runes"
|
"github.com/gobwas/glob/runes"
|
||||||
"io"
|
|
||||||
"strings"
|
|
||||||
"unicode/utf8"
|
"unicode/utf8"
|
||||||
)
|
)
|
||||||
|
|
||||||
|
@ -37,8 +34,6 @@ func special(c byte) bool {
|
||||||
return bytes.IndexByte(specials, c) != -1
|
return bytes.IndexByte(specials, c) != -1
|
||||||
}
|
}
|
||||||
|
|
||||||
var eof rune = 0
|
|
||||||
|
|
||||||
type itemType int
|
type itemType int
|
||||||
|
|
||||||
const (
|
const (
|
||||||
|
@ -121,7 +116,7 @@ type item struct {
|
||||||
}
|
}
|
||||||
|
|
||||||
func (i item) String() string {
|
func (i item) String() string {
|
||||||
return fmt.Sprintf("%v<%s>", i.t, i.s)
|
return fmt.Sprintf("%v<%q>", i.t, i.s)
|
||||||
}
|
}
|
||||||
|
|
||||||
type stubLexer struct {
|
type stubLexer struct {
|
||||||
|
@ -138,42 +133,91 @@ func (s *stubLexer) nextItem() (ret item) {
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
|
type items []item
|
||||||
|
|
||||||
|
func (i *items) shift() (ret item) {
|
||||||
|
ret, *i = (*i)[0], (*i)[1:]
|
||||||
|
return
|
||||||
|
}
|
||||||
|
|
||||||
|
func (i *items) push(v item) {
|
||||||
|
*i = append(*i, v)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (i *items) empty() bool {
|
||||||
|
return len(*i) == 0
|
||||||
|
}
|
||||||
|
|
||||||
|
var eof rune = 0
|
||||||
|
|
||||||
type lexer struct {
|
type lexer struct {
|
||||||
data string
|
data string
|
||||||
start int
|
pos int
|
||||||
pos int
|
err error
|
||||||
current rune
|
|
||||||
items []item
|
items items
|
||||||
termsLevel int
|
termsLevel int
|
||||||
r *bufio.Reader
|
|
||||||
|
lastRune rune
|
||||||
|
lastRuneSize int
|
||||||
|
hasRune bool
|
||||||
}
|
}
|
||||||
|
|
||||||
func newLexer(source string) *lexer {
|
func newLexer(source string) *lexer {
|
||||||
l := &lexer{
|
l := &lexer{
|
||||||
r: bufio.NewReader(strings.NewReader(source)),
|
|
||||||
data: source,
|
data: source,
|
||||||
}
|
}
|
||||||
return l
|
return l
|
||||||
}
|
}
|
||||||
|
|
||||||
func (l *lexer) shiftItem() (ret item) {
|
func (l *lexer) peek() (r rune, w int) {
|
||||||
ret, l.items = l.items[0], l.items[1:]
|
if l.pos == len(l.data) {
|
||||||
|
return eof, 0
|
||||||
|
}
|
||||||
|
|
||||||
|
r, w = utf8.DecodeRuneInString(l.data[l.pos:])
|
||||||
|
if r == utf8.RuneError {
|
||||||
|
l.errorf("could not read rune")
|
||||||
|
r = eof
|
||||||
|
w = 0
|
||||||
|
}
|
||||||
|
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
func (l *lexer) pushItem(i item) {
|
func (l *lexer) read() rune {
|
||||||
l.items = append(l.items, i)
|
if l.hasRune {
|
||||||
}
|
l.hasRune = false
|
||||||
|
l.seek(l.lastRuneSize)
|
||||||
|
return l.lastRune
|
||||||
|
}
|
||||||
|
|
||||||
func (l *lexer) hasItem() bool {
|
r, s := l.peek()
|
||||||
return len(l.items) > 0
|
l.seek(s)
|
||||||
}
|
|
||||||
|
l.lastRune = r
|
||||||
|
l.lastRuneSize = s
|
||||||
|
|
||||||
func (l *lexer) peekRune() rune {
|
|
||||||
r, _ := utf8.DecodeRuneInString(l.data[l.start:])
|
|
||||||
return r
|
return r
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func (l *lexer) seek(w int) {
|
||||||
|
l.pos += w
|
||||||
|
}
|
||||||
|
|
||||||
|
func (l *lexer) unread() {
|
||||||
|
if l.hasRune {
|
||||||
|
l.errorf("could not unread rune")
|
||||||
|
return
|
||||||
|
}
|
||||||
|
l.seek(-l.lastRuneSize)
|
||||||
|
l.hasRune = true
|
||||||
|
}
|
||||||
|
|
||||||
|
func (l *lexer) errorf(f string, v ...interface{}) {
|
||||||
|
l.err = fmt.Errorf(f, v...)
|
||||||
|
}
|
||||||
|
|
||||||
func (l *lexer) inTerms() bool {
|
func (l *lexer) inTerms() bool {
|
||||||
return l.termsLevel > 0
|
return l.termsLevel > 0
|
||||||
}
|
}
|
||||||
|
@ -187,104 +231,100 @@ func (l *lexer) termsLeave() {
|
||||||
}
|
}
|
||||||
|
|
||||||
func (l *lexer) nextItem() item {
|
func (l *lexer) nextItem() item {
|
||||||
if l.hasItem() {
|
if l.err != nil {
|
||||||
return l.shiftItem()
|
return item{item_error, l.err.Error()}
|
||||||
|
}
|
||||||
|
if !l.items.empty() {
|
||||||
|
return l.items.shift()
|
||||||
}
|
}
|
||||||
|
|
||||||
r, _, err := l.r.ReadRune()
|
l.fetchItem()
|
||||||
if err != nil {
|
|
||||||
switch err {
|
|
||||||
case io.EOF:
|
|
||||||
return item{item_eof, ""}
|
|
||||||
default:
|
|
||||||
return item{item_error, err.Error()}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
switch r {
|
|
||||||
case char_terms_open:
|
|
||||||
l.termsEnter()
|
|
||||||
return item{item_terms_open, string(r)}
|
|
||||||
|
|
||||||
case char_comma:
|
|
||||||
if l.inTerms() {
|
|
||||||
return item{item_separator, string(r)}
|
|
||||||
}
|
|
||||||
|
|
||||||
case char_terms_close:
|
|
||||||
if l.inTerms() {
|
|
||||||
l.termsLeave()
|
|
||||||
return item{item_terms_close, string(r)}
|
|
||||||
}
|
|
||||||
|
|
||||||
case char_range_open:
|
|
||||||
l.fetchRange()
|
|
||||||
return item{item_range_open, string(r)}
|
|
||||||
|
|
||||||
case char_single:
|
|
||||||
return item{item_single, string(r)}
|
|
||||||
|
|
||||||
case char_any:
|
|
||||||
b, err := l.r.Peek(1)
|
|
||||||
if err == nil && b[0] == char_any {
|
|
||||||
l.r.ReadRune()
|
|
||||||
return item{item_super, string(r) + string(r)}
|
|
||||||
}
|
|
||||||
return item{item_any, string(r)}
|
|
||||||
}
|
|
||||||
|
|
||||||
l.r.UnreadRune()
|
|
||||||
breakers := []rune{char_single, char_any, char_range_open, char_terms_open}
|
|
||||||
if l.inTerms() {
|
|
||||||
breakers = append(breakers, char_terms_close, char_comma)
|
|
||||||
}
|
|
||||||
l.fetchText(breakers)
|
|
||||||
|
|
||||||
return l.nextItem()
|
return l.nextItem()
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func (l *lexer) fetchItem() {
|
||||||
|
r := l.read()
|
||||||
|
switch {
|
||||||
|
case r == eof:
|
||||||
|
l.items.push(item{item_eof, ""})
|
||||||
|
|
||||||
|
case r == char_terms_open:
|
||||||
|
l.termsEnter()
|
||||||
|
l.items.push(item{item_terms_open, string(r)})
|
||||||
|
|
||||||
|
case r == char_comma && l.inTerms():
|
||||||
|
l.items.push(item{item_separator, string(r)})
|
||||||
|
|
||||||
|
case r == char_terms_close && l.inTerms():
|
||||||
|
l.items.push(item{item_terms_close, string(r)})
|
||||||
|
l.termsLeave()
|
||||||
|
|
||||||
|
case r == char_range_open:
|
||||||
|
l.items.push(item{item_range_open, string(r)})
|
||||||
|
l.fetchRange()
|
||||||
|
|
||||||
|
case r == char_single:
|
||||||
|
l.items.push(item{item_single, string(r)})
|
||||||
|
|
||||||
|
case r == char_any:
|
||||||
|
if l.read() == char_any {
|
||||||
|
l.items.push(item{item_super, string(r) + string(r)})
|
||||||
|
} else {
|
||||||
|
l.unread()
|
||||||
|
l.items.push(item{item_any, string(r)})
|
||||||
|
}
|
||||||
|
|
||||||
|
default:
|
||||||
|
l.unread()
|
||||||
|
breakers := []rune{char_single, char_any, char_range_open, char_terms_open}
|
||||||
|
if l.inTerms() {
|
||||||
|
breakers = append(breakers, char_terms_close, char_comma)
|
||||||
|
}
|
||||||
|
l.fetchText(breakers)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
func (l *lexer) fetchRange() {
|
func (l *lexer) fetchRange() {
|
||||||
var wantHi bool
|
var wantHi bool
|
||||||
var wantClose bool
|
var wantClose bool
|
||||||
var seenNot bool
|
var seenNot bool
|
||||||
for {
|
for {
|
||||||
r, _, err := l.r.ReadRune()
|
r := l.read()
|
||||||
if err != nil {
|
if r == eof {
|
||||||
l.pushItem(item{item_error, err.Error()})
|
l.errorf("unexpected end of input")
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
if wantClose {
|
if wantClose {
|
||||||
if r != char_range_close {
|
if r != char_range_close {
|
||||||
l.pushItem(item{item_error, "expecting close range character"})
|
l.errorf("expected close range character")
|
||||||
} else {
|
} else {
|
||||||
l.pushItem(item{item_range_close, string(r)})
|
l.items.push(item{item_range_close, string(r)})
|
||||||
}
|
}
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
if wantHi {
|
if wantHi {
|
||||||
l.pushItem(item{item_range_hi, string(r)})
|
l.items.push(item{item_range_hi, string(r)})
|
||||||
wantClose = true
|
wantClose = true
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
if !seenNot && r == char_range_not {
|
if !seenNot && r == char_range_not {
|
||||||
l.pushItem(item{item_not, string(r)})
|
l.items.push(item{item_not, string(r)})
|
||||||
seenNot = true
|
seenNot = true
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
b, err := l.r.Peek(1)
|
if n, w := l.peek(); n == char_range_between {
|
||||||
if err == nil && b[0] == char_range_between {
|
l.seek(w)
|
||||||
l.pushItem(item{item_range_lo, string(r)})
|
l.items.push(item{item_range_lo, string(r)})
|
||||||
l.r.ReadRune()
|
l.items.push(item{item_range_between, string(n)})
|
||||||
l.pushItem(item{item_range_between, string(char_range_between)})
|
|
||||||
wantHi = true
|
wantHi = true
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
l.r.UnreadRune()
|
l.unread() // unread first peek and fetch as text
|
||||||
l.fetchText([]rune{char_range_close})
|
l.fetchText([]rune{char_range_close})
|
||||||
wantClose = true
|
wantClose = true
|
||||||
}
|
}
|
||||||
|
@ -296,8 +336,8 @@ func (l *lexer) fetchText(breakers []rune) {
|
||||||
|
|
||||||
reading:
|
reading:
|
||||||
for {
|
for {
|
||||||
r, _, err := l.r.ReadRune()
|
r := l.read()
|
||||||
if err != nil {
|
if r == eof {
|
||||||
break
|
break
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -308,7 +348,7 @@ reading:
|
||||||
}
|
}
|
||||||
|
|
||||||
if runes.IndexRune(breakers, r) != -1 {
|
if runes.IndexRune(breakers, r) != -1 {
|
||||||
l.r.UnreadRune()
|
l.unread()
|
||||||
break reading
|
break reading
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
@ -318,6 +358,6 @@ reading:
|
||||||
}
|
}
|
||||||
|
|
||||||
if len(data) > 0 {
|
if len(data) > 0 {
|
||||||
l.pushItem(item{item_text, string(data)})
|
l.items.push(item{item_text, string(data)})
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
Loading…
Reference in New Issue