mirror of
https://github.com/fluencelabs/jsonpath
synced 2025-04-25 09:22:19 +00:00
close #43
This commit is contained in:
commit
75c28fc73d
@ -812,6 +812,25 @@ mod parser_tests {
|
|||||||
])
|
])
|
||||||
);
|
);
|
||||||
|
|
||||||
|
assert_eq!(
|
||||||
|
run("$.$a"),
|
||||||
|
Ok(vec![
|
||||||
|
ParseToken::Absolute,
|
||||||
|
ParseToken::In,
|
||||||
|
ParseToken::Key("$a".to_owned())
|
||||||
|
])
|
||||||
|
);
|
||||||
|
|
||||||
|
assert_eq!(
|
||||||
|
run("$.['$a']"),
|
||||||
|
Ok(vec![
|
||||||
|
ParseToken::Absolute,
|
||||||
|
ParseToken::Array,
|
||||||
|
ParseToken::Key("$a".to_owned()),
|
||||||
|
ParseToken::ArrayEof,
|
||||||
|
])
|
||||||
|
);
|
||||||
|
|
||||||
if run("$.").is_ok() {
|
if run("$.").is_ok() {
|
||||||
panic!();
|
panic!();
|
||||||
}
|
}
|
||||||
|
@ -172,6 +172,37 @@ impl<'a> Tokenizer<'a> {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
fn dolla(&mut self, pos: usize, ch: char) -> Result<Token, TokenError> {
|
||||||
|
let fun = |c: &char| match c {
|
||||||
|
&CH_DOT
|
||||||
|
| &CH_ASTERISK
|
||||||
|
| &CH_LARRAY
|
||||||
|
| &CH_RARRAY
|
||||||
|
| &CH_LPAREN
|
||||||
|
| &CH_RPAREN
|
||||||
|
| &CH_AT
|
||||||
|
| &CH_QUESTION
|
||||||
|
| &CH_COMMA
|
||||||
|
| &CH_SEMICOLON
|
||||||
|
| &CH_LITTLE
|
||||||
|
| &CH_GREATER
|
||||||
|
| &CH_EQUAL
|
||||||
|
| &CH_AMPERSAND
|
||||||
|
| &CH_PIPE
|
||||||
|
| &CH_EXCLAMATION
|
||||||
|
=> false,
|
||||||
|
_ => !c.is_whitespace(),
|
||||||
|
};
|
||||||
|
let (_, mut vec) = self.input.take_while(fun).map_err(to_token_error)?;
|
||||||
|
vec.insert(0, ch);
|
||||||
|
|
||||||
|
if vec.len() == 1 {
|
||||||
|
Ok(Token::Absolute(pos))
|
||||||
|
} else {
|
||||||
|
Ok(Token::Key(pos, vec))
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
fn quote(&mut self, ch: char) -> Result<String, TokenError> {
|
fn quote(&mut self, ch: char) -> Result<String, TokenError> {
|
||||||
let (_, mut val) = self
|
let (_, mut val) = self
|
||||||
.input
|
.input
|
||||||
@ -309,7 +340,7 @@ impl<'a> Tokenizer<'a> {
|
|||||||
pub fn next_token(&mut self) -> Result<Token, TokenError> {
|
pub fn next_token(&mut self) -> Result<Token, TokenError> {
|
||||||
let (pos, ch) = self.input.next_char().map_err(to_token_error)?;
|
let (pos, ch) = self.input.next_char().map_err(to_token_error)?;
|
||||||
match ch {
|
match ch {
|
||||||
CH_DOLLA => Ok(Token::Absolute(pos)),
|
CH_DOLLA => self.dolla(pos, ch),
|
||||||
CH_DOT => Ok(Token::Dot(pos)),
|
CH_DOT => Ok(Token::Dot(pos)),
|
||||||
CH_ASTERISK => Ok(Token::Asterisk(pos)),
|
CH_ASTERISK => Ok(Token::Asterisk(pos)),
|
||||||
CH_LARRAY => Ok(Token::OpenArray(pos)),
|
CH_LARRAY => Ok(Token::OpenArray(pos)),
|
||||||
|
@ -510,13 +510,26 @@ impl<'a, 'b> Selector<'a, 'b> {
|
|||||||
self.tokens.pop();
|
self.tokens.pop();
|
||||||
self.tokens.pop();
|
self.tokens.pop();
|
||||||
if let Some(Some(e)) = self.selector_filter.pop_term() {
|
if let Some(Some(e)) = self.selector_filter.pop_term() {
|
||||||
if let ExprTerm::Number(n) = &e {
|
let selector_filter_consumed = match &e {
|
||||||
self.current = self.selector_filter.collect_all_with_num(&self.current, to_f64(n));
|
ExprTerm::Number(n) => {
|
||||||
self.selector_filter.pop_term();
|
self.current = self.selector_filter.collect_all_with_num(&self.current, to_f64(n));
|
||||||
|
self.selector_filter.pop_term();
|
||||||
|
true
|
||||||
|
}
|
||||||
|
ExprTerm::String(key) => {
|
||||||
|
self.current = self.selector_filter.collect_all_with_str(&self.current, key);
|
||||||
|
self.selector_filter.pop_term();
|
||||||
|
true
|
||||||
|
}
|
||||||
|
_ => {
|
||||||
|
self.selector_filter.push_term(Some(e));
|
||||||
|
false
|
||||||
|
}
|
||||||
|
};
|
||||||
|
|
||||||
|
if selector_filter_consumed {
|
||||||
return;
|
return;
|
||||||
}
|
}
|
||||||
|
|
||||||
self.selector_filter.push_term(Some(e));
|
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
115
tests/paths.rs
Normal file
115
tests/paths.rs
Normal file
@ -0,0 +1,115 @@
|
|||||||
|
#[macro_use]
|
||||||
|
extern crate serde_json;
|
||||||
|
|
||||||
|
use common::{select_and_then_compare, setup};
|
||||||
|
|
||||||
|
mod common;
|
||||||
|
|
||||||
|
#[test]
|
||||||
|
fn dolla_token_in_path() {
|
||||||
|
setup();
|
||||||
|
|
||||||
|
select_and_then_compare(
|
||||||
|
"$..$ref",
|
||||||
|
json!({
|
||||||
|
"Junk1": "This is a test to illustrate use of '$' in the attr for the expression $..['$ref'] ",
|
||||||
|
"$ref": "Match Root",
|
||||||
|
"Subset1":[
|
||||||
|
{"Junk2": "Data...",
|
||||||
|
"$ref": "Match Subset1"
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"hierachy1":{
|
||||||
|
"hierachy2.1":{
|
||||||
|
"hierachy2.1.1":{ "$ref":"Match 2.1.1"},
|
||||||
|
"hierachy2.1.2":{ "ref":"Match 2.1.2"},
|
||||||
|
"hierachy2.1.3":{ "ref":"No Match 2.1.3"},
|
||||||
|
"hierachy2.1.4":{ "$ref":"Match 2.1.4"},
|
||||||
|
"hierachy2.1.5":{ "ref":"No Match 2.1.5"}
|
||||||
|
},
|
||||||
|
"hierachy2.2":{
|
||||||
|
"hierachy2.2.1":{ "ref":"No Match 2.2.1"},
|
||||||
|
"hierachy2.2.2":{ "$ref":"Match 2.2.2"},
|
||||||
|
"hierachy2.2.3":{ "ref":"No Match 2.2.3"},
|
||||||
|
"hierachy2.2.4":{ "ref":"No Match 2.2.5"},
|
||||||
|
"hierachy2.2.5":{ "$ref":"Match 2.2.5"}
|
||||||
|
},
|
||||||
|
"hierachy2.3":{
|
||||||
|
"hierachy2.3.1":{ "ref":"No Match 2.3.1"},
|
||||||
|
"hierachy2.3.2":{ "ref":"No Match 2.3.2"},
|
||||||
|
"hierachy2.3.3":{ "ref":"No Match 2.3.3"},
|
||||||
|
"hierachy2.3.4":{ "ref":"No Match 2.3.4"},
|
||||||
|
"hierachy2.3.5":{ "ref":"No Match 2.3.5"},
|
||||||
|
"hierachy2.3.6":{
|
||||||
|
"hierachy2.3.6.1":{ "$ref":"Match 2.3.6.1"},
|
||||||
|
"hierachy2.3.6.2":{ "ref":"No Match 2.3.6.2"},
|
||||||
|
"hierachy2.3.6.3":{ "ref":"No Match 2.3.6.3"},
|
||||||
|
"hierachy2.3.6.4":{ "ref":"No Match 2.3.6.4"},
|
||||||
|
"hierachy2.3.6.5":{ "ref":"No Match 2.3.6.5"}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}),
|
||||||
|
json!([
|
||||||
|
"Match Root",
|
||||||
|
"Match Subset1",
|
||||||
|
"Match 2.1.1",
|
||||||
|
"Match 2.1.4",
|
||||||
|
"Match 2.2.2",
|
||||||
|
"Match 2.2.5",
|
||||||
|
"Match 2.3.6.1"
|
||||||
|
]),
|
||||||
|
);
|
||||||
|
|
||||||
|
select_and_then_compare(
|
||||||
|
"$..['$ref']",
|
||||||
|
json!({
|
||||||
|
"Junk1": "This is a test to illustrate use of '$' in the attr for the expression $..['$ref'] ",
|
||||||
|
"$ref": "Match Root",
|
||||||
|
"Subset1":[
|
||||||
|
{"Junk2": "Data...",
|
||||||
|
"$ref": "Match Subset1"
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"hierachy1":{
|
||||||
|
"hierachy2.1":{
|
||||||
|
"hierachy2.1.1":{ "$ref":"Match 2.1.1"},
|
||||||
|
"hierachy2.1.2":{ "ref":"Match 2.1.2"},
|
||||||
|
"hierachy2.1.3":{ "ref":"No Match 2.1.3"},
|
||||||
|
"hierachy2.1.4":{ "$ref":"Match 2.1.4"},
|
||||||
|
"hierachy2.1.5":{ "ref":"No Match 2.1.5"}
|
||||||
|
},
|
||||||
|
"hierachy2.2":{
|
||||||
|
"hierachy2.2.1":{ "ref":"No Match 2.2.1"},
|
||||||
|
"hierachy2.2.2":{ "$ref":"Match 2.2.2"},
|
||||||
|
"hierachy2.2.3":{ "ref":"No Match 2.2.3"},
|
||||||
|
"hierachy2.2.4":{ "ref":"No Match 2.2.5"},
|
||||||
|
"hierachy2.2.5":{ "$ref":"Match 2.2.5"}
|
||||||
|
},
|
||||||
|
"hierachy2.3":{
|
||||||
|
"hierachy2.3.1":{ "ref":"No Match 2.3.1"},
|
||||||
|
"hierachy2.3.2":{ "ref":"No Match 2.3.2"},
|
||||||
|
"hierachy2.3.3":{ "ref":"No Match 2.3.3"},
|
||||||
|
"hierachy2.3.4":{ "ref":"No Match 2.3.4"},
|
||||||
|
"hierachy2.3.5":{ "ref":"No Match 2.3.5"},
|
||||||
|
"hierachy2.3.6":{
|
||||||
|
"hierachy2.3.6.1":{ "$ref":"Match 2.3.6.1"},
|
||||||
|
"hierachy2.3.6.2":{ "ref":"No Match 2.3.6.2"},
|
||||||
|
"hierachy2.3.6.3":{ "ref":"No Match 2.3.6.3"},
|
||||||
|
"hierachy2.3.6.4":{ "ref":"No Match 2.3.6.4"},
|
||||||
|
"hierachy2.3.6.5":{ "ref":"No Match 2.3.6.5"}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}),
|
||||||
|
json!([
|
||||||
|
"Match Root",
|
||||||
|
"Match Subset1",
|
||||||
|
"Match 2.1.1",
|
||||||
|
"Match 2.1.4",
|
||||||
|
"Match 2.2.2",
|
||||||
|
"Match 2.2.5",
|
||||||
|
"Match 2.3.6.1"
|
||||||
|
]),
|
||||||
|
);
|
||||||
|
}
|
Loading…
x
Reference in New Issue
Block a user